Was plant Putin? Nato-Direktor Janis Sarts sieht große Aufgaben auf das Bündnis zukommen – weit abseits klassischer Rüstung. © Montage: Kazakov/dpa via ZUMA Press Wire/fkn
München – Janis Sarts ist seit über zehn Jahren in der Nato der Mann für „Strategische Kommunikation“. „Wir tun nicht dasselbe wie die Russen, diese Manipulation von Fakten“, sagt der Lette im Interview. „Manipulation“ bedeute, Menschen ihr eigenes Denken und ihre Autonomie zu nehmen – „in Demokratien tun wir das nicht“, betont Sarts. Stattdessen gehe es bei strategischer Kommunikation zum Beispiel darum, gemeinsame Schritte auf die gleiche Weise zu erklären. Große Sorgen bereitet Sarts aber im Kampf „um die Gehirne“ die Künstliche Intelligenz. „Das ist ein Wandel in der Menschheitsgeschichte.“
Herr Sarts, Sie haben 2022 gesagt, Russland habe den Informationskrieg um die Ukraine schon verloren. Gilt das noch?
Im ersten Jahr der vollständigen Invasion hat Russland den Informationskampf tatsächlich verloren – aber es hat sich neu aufgestellt. Russland ist jetzt wieder im Spiel. In der Ukraine sind sie weiterhin nicht stark, aber sie nehmen die Unterstützernationen ins Visier. Das kann Lettland sein, Deutschland oder die USA. Sie haben sich auf Länder verlegt, in denen sie größere Chancen sehen.
Sie gehen davon aus, dass KI große Umwälzungen mit sich bringen wird.
Da würde ich gerne erst einmal zurückblicken. Erstens: Wir haben schon im letzten halben Jahr eine Industrialisierung des Informationskampfes erlebt. Bislang saßen da Trolle von 8 bis 17 Uhr – man konnte beinahe die Schichtwechsel mitverfolgen. Jetzt erledigen das Roboter. Und der Umfang ist, na ja… groß. Zweitens sehen wir eine bessere Vernetzung der Systeme. Die funktionieren so ähnlich wie Drohnenschwärme. Und drittens: KI-Accounts werden gerade sehr „menschlich“.
Was heißt das praktisch?
Ein Beispiel: Hier in München gibt es sicher Unterbezirke – und die haben meist eine Facebook-Gruppe. Dort tritt so ein KI-System bei, beteiligt sich an allen möglichen Diskussionen. Ist sehr aktiv, passt sich sehr gut dem Tonfall an; auf welchem Feld auch immer. Und dann versucht es, das Ganze in eine bestimmte Richtung zu beeinflussen. Die meisten Leute dürften nicht die leiseste Ahnung haben, dass sie es mit einer KI zu tun haben. Diese KIs erscheinen als vollständig menschlich. Sie sind sogar für unsere Systeme schwer zu erkennen. Dann passiert aber noch etwas anderes.
Und zwar?
„Data Poisoning“. Das ist der Versuch, KI-Modelle – insbesondere ChatGPT – dazu zu bringen, Fragen auf eine vom Manipulator gewünschte Weise beantworten zu lassen. Da manipulieren Maschinen andere Maschinen. Und zu guter Letzt gibt es natürlich noch Deepfakes. Ungefähr ein Viertel des Contents ist dieser Tage schon nicht menschengemacht.
Einiges davon erkennt man aber, zum Beispiel auf Instagram.
Manchmal – wenn all diese Tiere unrealistische Dinge tun. Da weiß man: Das kann nicht wirklich passiert sein. Aber wenn die Macher nicht ganz so übertreiben, wenn es um eine kleine Botschaft in einem bestimmten Kontext geht, bekommen die meisten Menschen gar nicht mit, dass sie einem Deepfake aufgesessen sind. Unserer Einschätzung nach wird es davon immer mehr geben. Als Größenordnung: Ich würde sagen, 50 Prozent der Inhalte, die wir nutzen und beobachten, werden Deepfakes sein. Aber das ist nur der aktuelle Stand. Die Dinge entwickeln sich schnell.
Was erwarten Sie für die Zukunft?
Gerade sprechen alle über agentische KI-Systeme. Wir erwarten, dass sie auf lange Sicht auf einzelne Menschen feinabgestimmtes Microtargeting betreiben. Mit der Fähigkeit, Emotionen zu lesen, sich auf Reaktionen einzustellen – die sind wirklich gut im psychologischen Profiling. In Echtzeit. Und dann sind da noch „KI-Beziehungen“.
Das gibt es schon.
Ja, Apps, die Beziehungen bieten. Für einsame Menschen etwa, manchmal geht es dabei auch um „intime“ Beziehungen. Aber sie werden künftig auch gebaut, um Menschen zu beeinflussen. Da hat man dann KI-Kompagnons, zu welchem Zweck auch immer – und sie werden letztlich die Weltsicht der Nutzenden beeinflussen. Letztlich wird es darauf hinauslaufen, dass Maschinen Maschinen überzeugen. Und wir werden nicht mehr glauben, was wir sehen. Das ist ein fundamentaler Wandel in der Menschheitsgeschichte. Bisher wusste man: Wenn man eine Tür sieht, ist sie real. Das funktioniert nicht mehr. Und das wird Auswirkungen haben.
Das klingt nach massiven Aufgaben, nicht nur für die Nato, sondern für unsere Gesellschaften.
Das ist so. Aber natürlich kann diese mächtige Technologie auch Schutzsysteme aufbauen. Es wird darauf ankommen, ob wir die nötige Technologie schaffen können, um Menschen in diesem neuen Umfeld zu schützen.