Wie IT-Forscher Deepfakes aufdecken

von Redaktion

KI-Tools helfen, manipulierte Bilder und Videos zu enttarnen – aber auch einfache Tricks

Garching – Die Zahl der Deepfakes nimmt rasant zu. Auf Social Media sorgen sie im besten Fall für Spaß und Unterhaltung. Auf Pornoseiten können sie den Ruf von Menschen zerstören – und die Menschen selbst. Deepfakes sind täuschend echte, KI-generierte oder manipulierte Bilder, Videos und Audioaufnahmen. In der aktuellen Debatte um den Fall Collien Fernandes haben sie es auch auf die politische Agenda geschafft.

Aber wie enttarnt man ein Deepfake? Nicolas Müller vom Fraunhofer-Institut für Angewandte und Integrierte Sicherheit in Garching (Kreis München) leitet dort eine Forschungsgruppe zu Deepfakes. Eine erste Analyse kann bereits mit den eigenen Augen und Ohren erfolgen, sagt er. „Bei einem Interview mit einer Person kann man checken: Das soll in Berlin aufgenommen sein an einem bestimmten Tag. Passt denn das Wetter? Man kann bei einem Video auch schauen: Kommen alle Schatten aus der richtigen Ecke?“ Das könne man händisch machen: „Da zieht man auf einem Standbild von den Schatten eine Linie zu den Schattengebern und schaut, ob alle diese Linien, wenn man sie nach oben weiterzeichnet, von einem gemeinsamen Punkt ausgehen. Wenn das nicht so ist, dann ist es mit einer sehr hohen Wahrscheinlichkeit ein Deepfake – zumindest, wenn es eine Szene draußen ist mit nur einer Lichtquelle.“

Es gebe weitere klassische Indizien für einen Deepfake: Artefakte um den Mundbereich, oder Hals und Oberkörper passen von den Hauttönen her nicht zusammen, eine Hand hat sechs Finger, ein Gegenstand verschmilzt mit der Hand, oder schwebt über ihr. Ein weiterer Hinweis sind die Metadaten – auch wenn diese fehlen. „Wenn sie mit aktuellen KI-Modellen wie Gemini oder ChatGPT Deepfakes erzeugen, dann steht in deren Metadaten drin, dass das KI-generiert ist. Aber sie können die Metadaten auch wegwerfen.“

Neben dem kritischen Blick und der eigenen Logik gibt es auch KI-Tools, um Deepfakes rasch zu entlarven: „Am Ende kommt ein Zahlenwert zwischen 0 und 100 heraus. 0 steht für echt, 100 steht für gefälscht. Normalerweise hat ein Deepfake einen Wert um die 95“, sagt Müller. Allerdings werden die KI-Modelle kontinuierlich verbessert. „Sie geben jetzt schon Bilder aus, die fast nicht mehr unterscheidbar sind von echtem Material.“ Trotzdem sieht der Forscher nicht schwarz für die „Wirklichkeit“: „Das ist wie in der IT-Sicherheit: Der Angreifer verbessert sich und die Verteidigung zieht dann entsprechend nach.“

Jens Kramosch vom Unternehmen Leak.Red in Erfurt nähert sich dem Deepfake wie ein Ermittler: „Das ist, wie wenn man an einen Tatort kommt. Am besten beobachtet man erst mal das Gesamtbild. Ich achte zum Beispiel auf die Haare, den Haaransatz, den Wimpernschlag und die Hautstruktur.“ Oft sei die Haut bei Deepfakes zu glatt. „Wichtig ist auch, nicht nur auf die Bildmitte zu schauen, sondern auf die Ränder: Passen die Linien? Passen die Schatten? Es gibt verschiedene KI-Modelle, die fokussieren sich auf das Objekt in der Mitte und vernachlässigen das Drumherum“ , sagt der 42-Jährige.

Auch Jens Kramosch sieht: Die KI wird immer besser, übertrifft sich ständig selbst. „Wenn wir über KI-Deepfakes reden, die vor einem Jahr online gegangen sind: Seither gibt es schon wieder 23 bessere Modelle. Ich denke, am Ende des Jahres sind wir wirklich so weit, dass der Laie auf Social Media keinen Unterschied mehr erkennen kann.“ DPA

Artikel 1 von 11