ru24.pro
World News
Февраль
2026
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22
23
24
25
26
27
28

ZDF nach KI-Skandal: Daran werden wir uns gewöhnen müssen

0
Die Verwendung eines KI-Videos im "heute journal" löst weiter Wirbel aus. Nach all der Empörung werden zwei bittere Wahrheiten bleiben. Eine Kolumne von Christian Richter Was soll eigentlich die ganze Aufregung? Ja, im "heute journal" sind versehentlich KI-generierte Aufnahmen in einen Nachrichtenbeitrag geraten. Sie sollten als Beleg für die schrecklichen Übergriffe durch die amerikanischen ICE-Truppen dienen. Die Empörung ließ nicht lange auf sich warten. Und natürlich wurde der Vorfall von den üblichen Verdächtigen instrumentalisiert, um die Glaubwürdigkeit des öffentlich-rechtlichen Rundfunks grundsätzlich in Zweifel zu ziehen. Zur Deeskalation trug es nicht bei, dass das ZDF den Fehler zunächst mit dem Hinweis auf eine fehlende KI-Kennzeichnung kleinzureden versuchte. Erst später räumte man ein doppeltes redaktionelles Versagen ein. Wie sehr sich das ZDF mit der verspäteten Klarstellung selbst einen Bärendienst erwiesen hat, hat mein Kollege Steven Sowa hier treffend kommentiert. Nach "heute journal"-Skandal: ZDF beruft Reporterin ab Der ZDF-Skandal und seine Konsequenzen: Sie sollten sich schämen Wenn man all die Empörung einmal abschält, was bleibt im Kern? Wie das ZDF offiziell erklärt, hat eine Autorin "Videomaterial zur Bebilderung ihres Beitrags ausgewählt, ohne es vorher gewissenhaft und vollständig auf Herkunft und Authentizität überprüft zu haben". Sie hat also einen KI-Fake entweder nicht erkannt oder ihn trotzdem eingesetzt. Ohne Frage: Das hätte nicht passieren dürfen, denn wie das ZDF zudem einräumt, wurden auch "die Prüf- und Verifikationsverfahren nicht wie vorgesehen angewendet". In diesem speziellen Fall riecht es nach fataler Unkenntnis von KI-Systemen, weil im Zentrum der betroffenen Szene das Wasserzeichen des Videogenerators "Sora" klar erkennbar ist. Das muss auffallen, sofern man den Schriftzug nicht für das Logo einer ausländischen Nachrichtenagentur hält. Doch die bittere Wahrheit ist: An solche Fälle werden wir uns gewöhnen müssen. Es wird vermehrt vorkommen, dass in Nachrichtenbeiträgen KI-Aufnahmen für authentisch gehalten und verwendet werden. Je perfekter die KI-Inhalte ausfallen, desto schwieriger – ja unmöglicher – ist ihre Identifikation. Wer weiß schon, welche KI-Bilder, Texte oder Videos längst versendet wurden, ohne dass es jemand bemerkt hat, weil sie kein Wasserzeichen trugen. Vermutlich mehr, als wir ahnen. Zwar gibt es bereits Software, die Inhalte daraufhin prüft, ob sie von einer KI erzeugt wurden, aber fehlerfrei arbeiten diese Detektoren nicht. Sie werden es wohl nie. Sie liefern allenfalls Wahrscheinlichkeiten dafür, ob ein Bild oder Text von einer Künstlichen Intelligenz stammen könnte. Ein beunruhigendes Szenario Daher werden wir akzeptieren müssen, mit dieser Ungewissheit zu leben. Wir werden uns nicht mehr bei jedem einzelnen Bild oder Video sicher sein können, dass es tatsächlich von einer echten Kamera aufgenommen wurde. Das gilt für WhatsApp-Gruppen, Social-Media-Posts, Online-Nachrichtendienste und ebenso für Nachrichtensendungen im Fernsehen. Wir werden lernen müssen, uns wie KI-Detektoren nur mit einer gewissen Wahrscheinlichkeit auf Bilder verlassen zu können. Das ist ein beunruhigendes Szenario, allerdings ein realistisches. Auch eine KI-Kennzeichnungspflicht wird das Problem allenfalls eindämmen. Mehr denn je sind künftig Informationskompetenz und permanente kritische Reflexion von uns allen gefragt. Wirbel um ZDF-Sendung: Dieser Fall muss Konsequenzen haben Täuschend echt: Wie man KI-Fälschungen im Alltag (noch) erkennt Weil es keine 100-prozentige Sicherheit mehr geben kann, werden Redaktionen wie die des "heute journals" vermehrt mit der Erkennung von KI-Bildern zu kämpfen haben. Das heißt natürlich nicht, dass sie sich nicht nach Kräften bemühen sollten, solches Material zu identifizieren und dessen Verwendung zu markieren. Vielmehr müssen sie jetzt geeignete Maßnahmen und Kontrollen etablieren, die solche Fälle so weit wie möglich reduzieren. Die angekündigten KI-Fortbildungen für die Mitarbeitenden im ZDF könnten dafür ein erster Schritt sein. So gesehen ist es ein Glücksfall, dass dieser Anlass gerade solche Wellen schlägt. Er zwingt Redaktionen, ihre bisherigen Abläufe zu überdenken, und sensibilisiert Journalistinnen und Journalisten, noch genauer hinzuschauen. Und dennoch muss allen klar sein, dass selbst umfassende Schutzmaßnahmen nicht verhindern werden, dass hier und dort doch einmal ein KI-Bild durchrutscht. Der finanzielle Druck Diese schmerzliche Einsicht darf jedoch nicht dazu führen, die generelle Glaubwürdigkeit von großen Nachrichtenangeboten infrage zu stellen. Im Gegenteil: Gerade, weil der Prozess des Aufdeckens solcher Videos zunehmend komplexer wird und die Flut an Deepfakes zunimmt, werden wir uns künftig vor allem auf gut ausgestattete Redaktionen verlassen müssen. Nur sie verfügen über die Ressourcen, eine halbwegs verlässliche Prüfung vorzunehmen. Und hier kommt die zweite bittere Wahrheit. Wenn wir fordern, dass in Nachrichten keine KI-Bilder verwendet werden sollen, müssen wir verhindern, dass die Medienhäuser und Anstalten unter zu großen finanziellem Druck geraten. Die nötigen Prüfabläufe sind aufwendig, personalintensiv und damit teuer. Den öffentlich-rechtlichen Rundfunk im Informationsbereich weiter zur Kostensenkung zu drängen, ist daher wenig hilfreich. Idealerweise müssten die großen KI-Konzerne verpflichtet werden, die durch ihre gefährlichen Produkte entstehenden Mehrkosten zu tragen. Andernfalls könnte der Rundfunkbeitrag weiter steigen oder wir werden uns über deutlich mehr KI-Bilder im "heute journal" empören.