Wie das Internet im KI-Schrott versinkt

von Redaktion

Ein Pferd auf einer Rolltreppe? In der KI-Welt kein Problem. © Screenshots: TikTok

Die Queen versucht, mit Diebesgut in Tüten vor der Polizei zu fliehen – ein Fake.

Finale im olympischen Geschirrspülen: Die USA liegen vorn. Auch das ist nicht echt.

KI-Therapie: Die Staatschefs Erdogan (Türkei) und Modi (Indien) füttern US-Präsident Trump im Krankenhaus.

Auferstehung des King of Pop: Im Netz kursiert dieser Sora-Clip von Michael Jackson, wie er Chicken-Nuggets stiehlt.

München – Unter Tränen klammern sich ein Mädchen und ein Bub an ihre Mama. Die Frau wird vor den Augen ihrer Kinder von zwei Männern abgeführt – angeblich Beamte der US-Einwanderungspolizei ICE. Fast vier Millionen Menschen haben die Szene am Sonntagabend vor einer Woche im „heute journal“ des ZDF gesehen. Doch nichts daran ist real. Der Clip wurde mit Künstlicher Intelligenz (KI) erzeugt – und schaffte es in die Nachrichten der Öffentlich-Rechtlichen.

Es war ein Fehler der Redaktion. Zuschauern fiel das KI-Video auf, weil am Bildrand ein Wasserzeichen mit der Aufschrift „Sora“ zu sehen war – ein Programm, mit dem Nutzer binnen Minuten hochrealistische Videos erstellen können. Das ZDF entschuldigte sich für den Fehler und zog die zuständige Korrespondentin aus New York ab. Der Schaden sei groß, sagte Chefredakteurin Bettina Schausten. „Es geht im Kern um die Glaubwürdigkeit unserer Berichterstattung.“

Sora kennt die Regeln der Physik und imitiert erstaunlich präzise

Sora-Videos fluten seit Monaten das Netz. Der Papst bei einer Skateboard-Meisterschaft? Eine Katze mit Dudelsack? Olympisches Geschirrspülen als Frauen-Disziplin? Michael Jackson und die Queen, plötzlich auferstanden, beim Klauen? Künstliche Intelligenz liefert all das inzwischen auf Knopfdruck. Geklickt wird, was absurd, schräg oder überraschend ist. Vieles ist klar als Fake (Fälschung) erkennbar. Aber manches eben nicht. Das Programm Sora 2 ist seit Oktober auf dem Markt. Es erzeugt aus ein paar Textvorgaben binnen Minuten teils hochrealistische Videos. Wo ältere KI Menschen noch zusätzliche Finger verlieh oder Gesichter verzerrte, kennt Sora die Regeln der Physik, versteht Licht und Schatten, imitiert menschliche Mimik und Gestik erstaunlich präzise.

Deepfakes (realistisch wirkende Videos, Bilder und Audioaufnahmen) gibt es schon lange. Der Begriff tauchte 2017 auf, als ein Nutzer die Gesichter berühmter Schauspielerinnen in Pornovideos montierte und auf der Plattform Reddit veröffentlichte – damals noch ein mühsamer Prozess, bei dem Programme manuell mit hunderten bis tausenden Bildern gefüttert werden mussten. „Früher musste man sich Mühe geben, authentisch wirkende Inhalte zu erstellen“, sagt Nicolas Müller, Experte für Künstliche Intelligenz am Fraunhofer-Institut für Angewandte und Integrierte Sicherheit (AISEC). „Heute geht das auch anders: Man tippt etwas in die KI, nimmt das Ergebnis und stellt es ins Netz.“ Echte Inhalte von Menschen gebe es in Sozialen Medien immer seltener.

Europol, die Strafverfolgungsbehörde der EU in Den Haag, schätzt, dass 2026 bereits 90 Prozent der Online-Inhalte von Künstlicher Intelligenz gemacht sein könnten. Laut EU-Angaben hat sich die Zahl der Deepfakes in den vergangenen Jahren etwa alle sechs Monate verdoppelt. Menschen haben schon jetzt große Schwierigkeiten, sie zu erkennen: Die Trefferquote liegt demnach nur bei rund 50 Prozent – also nicht besser als zu raten.

Videos, die mit Sora erstellt wurden, sind noch einmal ein anderes Phänomen: Sie werden auch „AI Slops“ genannt, was mit „KI-Abwasser“ oder „KI-Müll“ übersetzt werden kann. Viele dieser Videos wollen gar nicht echt wirken.

Ein Clip, in dem Nordkoreas Machthaber Kim Jong-un Donald Trump die Haare schneidet, soll gerade nicht glaubwürdig sein, sondern möglichst bizarr. „Es geht nicht darum, jemanden zu täuschen, sondern eine Idee zu transportieren – egal, wie billig sie gemacht ist“, sagt Martin Steinebach, IT-Forensik-Experte bei ATHENE, dem größten Forschungszentrum für Cybersicherheit in Europa. AI Slops könnten „kompletter Unfug oder gezielt gestreute Desinformation sein“, erklärt Steinebach. Das eine schließe das andere nicht aus.

Und: Auch klar erkennbare Fakes seien nicht harmlos. „Wir hatten im Vorfeld der Bundestagswahlen diese Bilder, auf denen sich Politiker in den Armen liegen: Merz, der mit Baerbock tanzt, mit drei Händen, wohlgemerkt. Trotzdem hieß es: Seht her, die tun nur so, als wären sie Gegner, in Wahrheit kuscheln sie alle zusammen.“ Ob jemand beim Anschauen die Hände zählt oder den Schatten prüft, spiele keine große Rolle. Solange die Botschaft sitzt.

Ob etwas echt ist oder nicht, lässt sich kaum noch mit bloßem Auge feststellen. Selbst Experten geraten mittlerweile ins Grübeln, sagt Steinebach. Nötig seien etwa kryptografische Kameras, die das Bild beim Aufnehmen signieren. „Aber kein Mensch nutzt solche Systeme im Alltag.“

Einer aktuellen Studie zufolge haben selbst Experten für Gesichtserkennung, sogenannte Super Recognizer, Probleme damit, echte Gesichter von solchen zu unterscheiden, die mit KI generiert wurden. Laut dem „British Journal of Psychology“ schnitten sie bei einem Test nur leicht besser ab als eine Kontrollgruppe ohne diese besondere Begabung.

Neues Gesetz zur Kennzeichnung: Wer soll das kontrollieren?

Eine echte Lösung fehlt bisher. Zwar schreibt der geplante AI Act der EU vor, dass künftig nicht nur Betreiber von Systemen KI-generierte Inhalte kennzeichnen müssen – sondern auch ihre Nutzer, sofern sie Texte, Bilder, Videos oder Audioaufnahmen mit der Öffentlichkeit teilen. Wie das umgesetzt oder kontrolliert werden soll, ist aber völlig offen. Das Gesetz tritt am 2. August in Kraft.

KI-Experte Nicolas Müller sieht die Entwicklung nicht nur negativ. „KI ist ein Werkzeug – wie die Atomkraft. Man kann sie für Gutes oder Schlechtes einsetzen.“ Entscheidend sei, wie wir sie nutzen. Die Flut der AI Slops zeige aber, wie schnell die Sache in eine schräge Richtung kippt. „Eigentlich wollten wir Technologien, die unseren Alltag erleichtern – Maschinen, die die Wäsche falten, damit wir mehr Zeit für die schönen Dinge haben“, sagt Müller. Stattdessen übernehme Künstliche Intelligenz jetzt das, was nach Kreativität aussehen soll – und wir kümmern uns weiter um die Wäsche.

Artikel 2 von 5