Eine Revolution voller Chancen und Risiken

von Redaktion

Künstliche Intelligenz wird immer besser – doch was soll sie alles dürfen? Wer kontrolliert sie? Und wer trägt am Ende die Verantwortung?

München – „Künstliche Intelligenz erobert die Welt!“ So zumindest lautet die Selbstwahrnehmung des cleveren Algorithmus ChatGPT, bittet man ihn um einen knackigen ersten Satz zum Thema Künstliche Intelligenz (KI). Artikel, Gedichte, Drehbücher, Programmcodes – es gibt scheinbar nichts, auf das sich KI nicht versteht.

Auch in bayerischen Unternehmen ist die Revolution angekommen. „Der Einsatz von KI ist eine Chance“, erklärt etwa Marion Zauner, Sprecherin der Allianz. Der Münchner Versicherungskonzern setzt schon seit etwa einem Jahrzehnt auf Künstliche Intelligenz. KI-Sprachmodelle würden beispielsweise große Textmengen schnell verarbeiten und so Mitarbeitern Zeit sparen. „Die können mehr Zeit auf ihre Kernexpertise verwenden: Risiken einzuschätzen und richtig zu bepreisen“, erklärt Zauner.

Ähnlich wird die Technik bei Munich Re eingesetzt. Der Münchner Rückversicherer hat mit CertAI eine Gesellschaft ausgegründet, die an einem Prüfverfahren für KI arbeitet. Infineon benutzt KI für interne Prozesse, etwa zur Gestaltung von Produkten, aber auch in Lösungen von Kunden, wie Sprecher Gregor Rodehüser erläutert. Erst im Mai hat der Chiphersteller Imagimob gekauft, ein schwedisches Start-up, das intelligente Produkte erst möglich macht. „KI hat eine hohe Relevanz für Infineon in nahezu allen Funktionen.“

Ist die Sorge um den Arbeitsplatz, die viele angesichts der Möglichkeiten von Künstlicher Intelligenz umtreibt, also gerechtfertigt? Nein, sagt etwa Markus Wölfle, Leiter Unternehmenskommunikation von MTU Aero Engines. „Jede Art von KI wird immer in Verbindung mit einer fachkundigen Analyse durch unsere hochqualifizierten Mitarbeiter bei der MTU eingesetzt.“ KI sei eine reine Unterstützung, um Arbeit effizienter zu gestalten.

Die grundsätzlichen Überlegungen zur Technik reichen Jahrhunderte zurück. Künstliche Intelligenz soll menschliches Denken maschinell nachbilden und wurde laut der Online-Enzyklopädie Wikipedia bereits im 18. Jahrhundert vom französischen Aufklärer Julien Offray de La Mettrie beschrieben.

KI-Forschung jüngerer Prägung findet seit den 1950er-Jahren statt. Damals wurde der Begriff der Künstlichen Intelligenz geprägt. Wie bei so vielen Moden in der Informationstechnik (IT) hat KI in den Jahrzehnten danach Höhen und Tiefen hinter sich: Erwartungen geweckt – und enttäuscht.

Der letzte Hype fand vor rund einer Dekade statt. Seinerzeit gewann der Algorithmus Watson von IBM die populäre US-Quiz-Show „Jeopardy!“. Millionen Amerikaner schauten zu. Der Jubel war groß. Solche Algorithmen würden die Welt verändern, hieß es – und jede Menge Jobs kosten. Genau wie heute. Passiert ist dennoch nicht viel. Watson war im Nachhinein betrachtet eine ziemlich dumme Künstliche Intelligenz. Es verstand zwar die natürliche Sprache, konnte eine Vielzahl von Daten analysieren und interpretieren. Doch das System musste speziell für seine Aufgaben trainiert werden, etwa auf das Beantworten von Quiz-Fragen. Alles darüber hinaus klappte ohne neuerliches Training nicht gut.

ChatGPT ist dagegen ein Quantensprung. Das System wurde wie Watson mit jeder Menge Informationen gefüttert, aber für keinen speziellen Zweck trainiert. „So etwas hätte ich vor zwei, drei Jahren noch für unmöglich gehalten“, erklärt KI-Spezialist Babak Hodjat, der als Vater der Apple-Sprachassistenz Siri gilt.

Hodjat vergleicht die KI-Revolution mit der Erfindung des Transistors, des Computers oder der Entwicklung des Internets, „nur dass die Veränderung dieses Mal rascher vonstattengeht, da die zugrunde liegende Technologie vorhanden ist und niemand Experte sein muss, um die Technik zu nutzen“. Ein getippter Befehl in menschlicher Sprache genügt.

Doch auch dieses Mal ist die Technik noch nicht ausgereift. Viele Fragen sind ungelöst, beispielsweise ethischer Natur: Wer übernimmt die Verantwortung, wenn ein KI-System ein anderes selbstständig weiterentwickelt? Technisch ist das schon heute kein Problem. Wer kontrolliert den Einsatz? Staatliche Institutionen könnten dies tun, aber auch die Anbieter wollen – wohl nicht ganz selbstlos – diese Aufgabe übernehmen. Wer kann künftig noch Wahres von Falschem unterscheiden? Mit den Systemen ist es ein Leichtes, Informationen zu manipulieren, selbst Bilder oder Videos. Wie werden Urheber entschädigt für die Texte und Bilder, mit denen die KI trainiert wird? Die Algorithmen sind nur so gut wie die Daten, mit denen sie trainiert werden. Alle Vorurteile oder Diskriminierungen der Ursprungsinformationen sind auch in den Antworten der KI enthalten.

Sicher scheint: Die junge Technologie wird uns weiter beschäftigen. Fragen wir doch ChatGPT nach einem letzten Satz für diesen Artikel: Antwort: „Die rasante Entwicklung der Künstlichen Intelligenz verspricht eine Zukunft, in der innovative Technologien unser tägliches Leben grundlegend verändern werden.“ FRANK MEIK

An KI wird seit den

1950ern geforscht

Viele Fragen sind noch ungelöst

Artikel 2 von 4