Rosenheim – Fake-Nacktbilder zu erstellen, ist heutzutage einfacher denn je. Denn Kenntnisse in Bildbearbeitung oder Ähnlichem sind nicht mehr nötig. Diese werden inzwischen durch die KI ersetzt. Umso drastischer ist es, dass es nach wie vor keine gesetzliche Regelung gibt, die die Erstellung von Deepfake-Inhalten dieser Art verbietet. Der Gesetzgeber muss jetzt handeln, fordert Anatol Maier, Gründer des Rosenheimer Start-ups Neuramancer, im exklusiven OVB-Interview. Außerdem erklärt er, warum es so schwierig ist, sich davor zu schützen, und wie man KI-Inhalte im Netz erkennen kann.
Mit dem Fall von Collien Fernandes ist das Thema digitale Gewalt aktueller denn je. Gibt es Möglichkeiten, sich vor der Erstellung von Deepfakes mit dem eigenen Gesicht zu schützen?
Das ist tatsächlich eine der größeren Problematiken – vor allem im privaten Umfeld. Wir als Unternehmen können im Kontext von Desinformation Material analysieren. Wenn wir von Deepfake-Pornografie ausgehen, können wir das natürlich auch machen. In solchen Fällen ist den Opfern aber wenig geholfen. Der Schaden ist ja schon angerichtet – auch wenn man im Nachhinein belegen kann, dass das Material KI-generiert ist.
Schützen kann man sich also nicht?
Nein. Und das ist ein Problemfall, bei dem wir ganz klar die Gesetzgebung in der Pflicht sehen. Allein schon, was die Strafbarkeit der Erstellung solcher Materialien angeht. Es gibt momentan zum Beispiel extrem viele „Deep-Nude-Plattformen“ im Internet. Dort muss man lediglich seine Kreditkarteninformationen angeben und kann Fotos von Menschen hochladen und diese dann „ausziehen“. Und mir fällt wirklich kein legitimer Zweck ein, warum das erlaubt sein sollte …
Kann man Fotos, die man von sich selbst im Netz hochlädt, also gar nicht vor einem solchen Missbrauch schützen?
Man kann versuchen, Bildmaterial auf technischer Ebene zu schützen. Das steckt allerdings noch in den Kinderschuhen.
Sobald also ein Foto von mir im Netz ist, besteht die Gefahr, dass solche Inhalte erstellt werden?
Ja. Und natürlich können solche Modelle nicht wirklich die Kleidung entfernen und die echte Person darunter zeigen. Aber sie können mittlerweile täuschend echte Informationen hinzufügen, die sehr plausibel wirken. Und der Schaden dadurch ist natürlich sehr real.
Wenn ich heute also durch Instagram oder Tiktok scrolle – woran erkenne ich, was echt ist und was nicht?
Im Fachjargon reden wir von semantischen oder High-Level-Features. Man sucht also nach Fehlern. Das Problem ist aber, dass diese immer weniger werden. Denn die KI-Modelle werden schließlich darauf trainiert, immer bessere Bilder und Videos zu generieren. Aber: Videomodelle können konsistent gute Qualität meist nicht lange aufrechterhalten. Heißt: KI-generierte Videos ohne auffällige Fehler sind meist nur circa fünf oder zehn Sekunden lang. Ein langes Video ohne Schnitt ist also höchstwahrscheinlich echt.
Und bei Fotos?
Auch hier wurden einige Fehler aus den vergangenen Jahren inzwischen ausgemerzt. Es gibt aber nach wie vor ein paar Anhaltspunkte. Pupillen sind beispielsweise häufig noch ein Thema. Die sind bei KI-Porträts oft ausgefranst. Was bei der Erkennung von KI-Inhalten natürlich immer wichtig ist, ist ein kritischer Blick und ein gewisses Kontextwissen. Wenn eine politische Person eine absurde Aussage trifft, die überhaupt nicht zu eben jener Person passt, ist die Wahrscheinlichkeit auch sehr hoch, dass das Video KI-generiert ist. Das ist meist einer der besten Anhaltspunkte. Denn in die andere Richtung passieren genauso Fehler. Also, dass man aus Bildfehlern, die etwa durch Kompression oder Unschärfe entstehen, schließt, dass es sich um KI-Inhalte handelt, obwohl dem nicht so ist. Insofern ist das mittlerweile keine so einfach zu lösende Aufgabe mehr ohne technische Unterstützung.
Und diese liefern Sie mit Ihrem Start-up Neuramancer?
Genau. Derzeit richtet sich unser Angebot an Kunden im medialen Bereich, also aus dem Journalismus. Wir bieten aber auch Hilfe im Bereich Betrug an. Beispielsweise für HR-Bereiche, in Fällen, in denen beispielsweise ein Führungszeugnis manipuliert wurde. Oder auch im Bereich von Versicherungsbetrug.
Die KI-Modelle entwickeln sich wahnsinnig schnell weiter. Wie halten Sie da mit – und haben Sie Sorge, dass man irgendwann gar nicht mehr zwischen Realität und Fake unterscheiden kann?
Die Entwicklung ist tatsächlich sehr, sehr rasant. Das betonen wir schon seit unserer Gründung. Die Bilder und Videos werden für die Rezipienten immer besser. Das wollen die Entwickler ja auch. Deswegen stützen wir uns kaum auf visuelle Merkmale, sondern letzten Endes quasi auf Signale, die dahinterliegen. Also beispielsweise das Rauschverhalten eines echten Bildes, welches sich wie eine Art Fingerabdruck von der Kamera aus einbrennt. Bis heute sind wir noch wirklich gut dabei, das ist aber natürlich auch gewissermaßen ein Hase-Igel-Rennen. Heißt: Wir müssen mit der Entwicklung mitgehen und können uns nicht die nächsten 20 Jahre auf einem Algorithmus ausruhen, den wir derzeit anwenden. Aber genau dafür bauen wir hier in Rosenheim unser Expertenteam aus, um unsere Verfahren laufend weiterzuentwickeln.
Gibt es eine „Art“ von Deepfakes, die Ihnen aktuell besonders Sorgen bereitet?
Tatsächlich ist es eher die freie Verfügbarkeit solcher Modelle für jedermann, die mir Sorgen bereitet. Vonseiten der Technologiekonzerne hört man immer nur: „Wir müssen erst technologisch besser werden und dann kümmern wir uns um die Sicherheit.“ Das ist etwas, was ich sehr besorgniserregend finde. Und die Modelle, die da trainiert werden, haben kein ethisches Bewusstsein. Die sind nicht objektiv und können von den Unternehmen, die dahinterstehen, individuell gesteuert werden. Und dann wird im Zweifel aus ethisch-moralisch verwerflichen Dingen schlichtweg ein Geschäftsmodell gemacht. Die EU und Deutschland sind jetzt stark in der Pflicht, klare Grenzen für die Einsatzmöglichkeit von KI-Verfahren zu setzen.
Kann man überhaupt noch irgendetwas glauben, was man im Internet sieht?
Bildmanipulation ist an sich nichts Neues. Das ist so alt wie das Medium Bild selbst. Das Problem ist aber, dass wir heute in einer Zeit leben, in der unfassbar gut professionalisiert werden kann. Man muss nur noch prompten. Daher ist ein kritischer und fundierter Blick auf alles, was ich medial aufnehme, extrem wichtig geworden. Ich hoffe mal nicht, dass wir jetzt ins Verzagen kommen und sagen: „Oh mein Gott, ich kann ja gar nichts mehr glauben. Es ist alles total hoffnungslos.“ Ja, die Welt ist ein Stück komplexer geworden, aber es ist umso wichtiger, Dinge noch mal auf eine sinnvolle Art und Weise kritisch zu hinterfragen und seine Quellen zu prüfen.
Patricia Huber