Millionen Menschen nutzen KI-Tools, um sich zu informieren. Doch in 45 Prozent der Fälle geben KI-Assistenten Nachrichteninhalte fehlerhaft wieder – unabhängig von Sprache, Region oder Plattform. Das zeigt die am Mittwoch, 22. Oktober 2025, veröffentlichte Studie „News Integrity in AI Assistants“ der Europäischen Rundfunkunion (EBU). Neben ARD und ZDF beteiligten sich öffentlich-rechtliche Sender aus Frankreich, Kanada, Schweden, Spanien, den USA und anderen Ländern an der internationalen Studie unter Federführung der BBC.
Zentrale Ergebnisse der Studie:
– 45 Prozent aller KI-Antworten wiesen mindestens einen erheblichen Fehler auf.
– 31 Prozent der Antworten zeigten gravierende Probleme bei den Quellenangaben.
– 20 Prozent enthielten deutliche Ungenauigkeiten, Halluzinationen oder veraltete Informationen.
ZDF-Intendant Dr. Norbert Himmler: „Wir wollen die Informationsvermittlung im KI-Zeitalter aktiv mitgestalten und sehen die Chancen der Technologie. Die Studie belegt zugleich die Bedeutung öffentlich-rechtlicher Informationsangebote. Dort finden die Menschen verlässliche Informationen und journalistische Einordnung, die KI-Tools allein nicht leisten können. Die Studie unterstreicht zudem die Notwendigkeit, die Qualität von KI-generierten Inhalten kontinuierlich zu überprüfen.“
Florian Hager, ARD Vorsitzender und hr-Intendant: „Wir sehen unsere Linie von der Studie gestützt: Vertrauenswürdige Inhalte brauchen vertrauenswürdige KI-Systeme. Die ARD hat explizit Interesse daran, dass unsere Inhalte auch über KI für die Nutzenden zugänglich sind. Deshalb suchen wir aktiv das Gespräch mit den Plattformen, um zu guten Kooperationsmodellen zu kommen, die einen regulierten Zugang zu unseren Inhalten ermöglichen. Es braucht Mechanismen, die falsche und missverständliche Informationen verhindern.“
Nächste Schritte
Das Forschungsteam hat außerdem ein „Toolkit zur Genauigkeit bei KI-Assistenten“ veröffentlicht. Es enthält Vorschläge an die KI-Anbieter zur Verbesserung der KI-Antworten und zur Förderung der Medienkompetenz bei Nutzerinnen und Nutzern. Aufbauend auf den Ergebnissen der Studie geht es um die Fragen: „Was macht eine gute KI-Antwort auf eine Nachrichtenfrage aus?“ und „Welche Probleme müssen behoben werden?“
Darüber hinaus fordern die EBU und ihre Mitglieder die EU und nationale Regulierungsbehörden auf, bestehende Gesetze zur Informationsintegrität, zu digitalen Diensten und zur Medienvielfalt konsequent durchzusetzen. Sie betonen, dass eine fortlaufende unabhängige Überwachung von KI-Assistenten angesichts der rasanten Entwicklung der Technologie unerlässlich ist, und prüfen Möglichkeiten für eine kontinuierliche Forschung.
Über die Studie
Die Studie wird im Rahmen der EBU News Assembly in Neapel vorgestellt, beteiligt waren 22 öffentlich-rechtliche Medienorganisationen aus 18 Ländern in 14 Sprachen. Über 3.000 KI-Antworten der KI-Assistenten ChatGPT, Copilot, Gemini und Perplexity wurden von Journalistinnen und Journalisten anhand zentraler Kriterien, darunter Genauigkeit, Quellenangaben, Unterscheidung zwischen Meinung und Fakten sowie Bereitstellung von Kontext, geprüft.
Die Untersuchung baut auf einer BBC-Studie vom Februar 2025 auf und bestätigt, dass die Probleme bei KI-generierten Nachrichteninhalten systematisch und international verbreitet sind.
Weitere Informationen
Hier finden Sie die Studie: News Integrity in AI Assistants. An international PSM study (https://www.ebu.ch/Report/MIS-BBC/NI_AI_2025.pdf)
Hier finden Sie das Toolkit: News Integrity in AI Assistants TOOLKIT (https://www.ebu.ch/Toolkit/MIS-BBC/NI_AI_2025.pdf)
Kontakt
Sie erreichen die ZDF-Kommunikation per E-Mail unter pressedesk@zdf.de oder telefonisch unter 06131 – 70-12108.
Sie erreichen die ARD-Kommunikation per E-Mail unter pressestelle@ARD.de
Pressekontakt:
ZDF-Kommunikation
pressedesk@zdf.de
Folgen Sie uns gerne auch bei LinkedIn (https://www.linkedin.com/company/zdf/).
Original-Content von: ZDF, übermittelt durch news aktuell