Berlin – Künstliche Intelligenz (KI) wird bei der Suche nach aktuellen Nachrichten und Informationen immer häufiger genutzt. Allerdings geben KI-Assistenten Nachrichteninhalte offenbar häufig fehlerhaft wieder. Laut einer aktuellen Studie der Europäischen Rundfunkunion (European Broadcasting Union, EBU) enthalten 45 Prozent aller KI-Antworten unabhängig von Sprache, Region oder Plattform mindestens einen erheblichen Fehler.
Die EBU, ein Zusammenschluss von meist öffentlich-rechtlichen Sendern, hatte unter Federführung der BBC über 3000 KI-Antworten von KI-Assistenten wie ChatGPT, Copilot, Gemini und Perplexity aus 18 Ländern und in 14 Sprachen untersuchen lassen. Die Ergebnisse wurden anhand journalistischer Kriterien wie Genauigkeit, Quellenangaben, Unterscheidung zwischen Meinung und Fakten sowie der Bereitstellung von Kontext geprüft.
Demnach zeigte fast ein Drittel der Antworten (31 Prozent) auch gravierende Probleme bei den Quellenangaben. Jede fünfte Antwort enthielt veraltete Informationen, andere „deutliche Ungenauigkeiten“ oder sogar KI-Halluzinationen, wie die Studie feststellt. Unter KI-Halluzinationen versteht man KI-generierte Antworten, die zwar plausibel klingen, aber inhaltlich falsch sind.
An der Untersuchung mit dem Titel „News Integrity in AI-Assistants“ (Nachrichten-Integrität von KI-Assistenten) waren auch die ARD und das ZDF beteiligt. „Vertrauenswürdige Inhalte brauchen vertrauenswürdige KI-Systeme“, sagte der ARD-Vorsitzende Florian Hager zu den Ergebnissen. Da die ARD „explizit Interesse“ daran habe, dass ihre Inhalte auch über KI zugänglich seien, werde man „das Gespräch mit den Plattformen suchen, um zu guten Kooperationsmodellen zu kommen, die falsche und missverständliche Informationen verhindern“. ZDF-Intendant Norbert Himmler sieht in der Studie einen Beleg dafür, dass KI journalistische Einordnungen alleine nicht leisten kann.