München – Stellen Sie sich vor, Sie könnten Ihren besten Freund jederzeit und überall dabeihaben, um über alles Mögliche zu plaudern – von dem neuesten Klatsch und Tratsch bis hin zu tiefgründigen Philosophie-Diskussionen. Jetzt stellen Sie sich vor, dass Ihr bester Freund ein KI-Modell namens ChatGPT ist. Klingt verrückt? Vielleicht, aber ChatGPT ist bereit, die Welt des unterhaltsamen Plauderns auf den Kopf zu stellen. Mit seiner fähigen KI-Engine und dem Zugriff auf eine unglaubliche Menge an Informationen kann ChatGPT über nahezu jedes Thema diskutieren und dabei immer amüsant, schlau und unterhaltsam bleiben. Kein Wunder, dass es bereits als das neue Gesicht der Unterhaltung gefeiert wird – und das ist erst der Anfang.
Dieser erste Absatz samt aller Lobhudelei ist im wahrsten Sinne des Wortes unmenschlich. Er wurde nicht von den Autoren dieses Artikels verfasst, sondern von Künstlicher Intelligenz. Der Auftrag lautete: Schreibe einen amüsanten Texteinstieg für einen Zeitungsartikel über ChatGPT. Zwei Sekunden später spuckte das Programm den Absatz aus.
ChatGPT sorgt gerade weltweit für Schlagzeilen. Entwickelt vom amerikanischen Unternehmen OpenAI ging der Prototyp im November online. Das hat einen regelrechten Hype ausgelöst. ChatGPT hat in den USA mehrere Uni-Prüfungen bestanden, Software-Programme geschrieben und eine Debatte darüber ausgelöst, wie Schulen und Universitäten künftig mit Hausarbeiten oder Referaten umgehen sollen – bei denen nicht mehr erkennbar ist, ob sie Mensch oder Maschine geschrieben hat.
„Der entscheidende Fortschritt von ChatGPT ist, dass es nicht nur eine Textsorte beherrscht“, sagt Michael Rödel, Professor für die Didaktik der deutschen Sprache und Literatur an der LMU München. Er beschäftigt sich mit der Frage, welche Rolle Digitalität im Deutschunterricht spielen kann und soll. Und da bietet die Künstliche Intelligenz von Programmen wie ChatGPT viel Diskussionsstoff. Kürzlich haben Forscher der LMU schon das Kultusministerium und das für die Lehrpläne zuständige Staatsinstitut für Schulqualität zu einem Arbeitstreffen eingeladen, um über den Umgang mit ChatGPT zu beraten.
In den USA hat die New Yorker Schulbehörde ChatGPT auf ihren Servern bereits sperren lassen. Und auch Anja Bensinger-Stolze von der Schulgewerkschaft GEW warnt davor, dass Schüler nicht mehr lernten, Bezüge herzustellen, wenn sie KI-generierte Texte einfach abtippten, um die Hausaufgabe schnell abhaken zu können. Sowohl der Deutsche Lehrerverband als auch die Präsidentin der Kultusministerkonferenz, Astrid-Sabine Busse, halten ein Verbot aber nicht für sinnvoll. „Die Frage muss doch eher sein, welche Kompetenzen braucht es, um Künstliche Intelligenz sinnvoll nutzen zu können“, sagt Busse. Bundesbildungsministerin Bettina Stark-Watzinger (FDP) hält eine Anpassung der Lehrerausbildung für erforderlich.
Auch Prof. Rödel sieht den Fortschritt grundsätzlich positiv. „Ein Ende der Hausarbeit sehe ich aktuell nicht“, sagt er. Dafür sei das Programm noch nicht gut genug. ChatGPT könne zwar durchaus eine sinnvolle Interpretation zu Kafkas Verwandlung liefern. „Aber eine Hausarbeit ist so komplex, da in einem längeren Text eine logische Argumentation aufzubauen, ist für die KI noch zu anspruchsvoll.“
Er vergleicht das Programm mit einem Taschenrechner. Auch der könne Schülern und Lehrern das Leben erleichtern, zunächst müsse man aber den Rechenweg auch ohne technische Hilfe erlernen. „So ist das bei der Sprache auch. Man braucht Textkompetenz – und die bekommt man nicht allein von ChatGPT.“ Er plädiert dafür, Künstliche Intelligenz stärker in den Unterricht einzubinden. Und dabei aber großen Wert darauf zu legen, dass die Fähigkeit, sich selbst auszudrücken, geschult wird.
Das derzeit wohl größte Problem von ChatGPT formuliert Rödel so: „Es hat kein Verhältnis zur Wahrheit.“ Das Programm kann fachlich solide Texte liefern. Aber es ist nicht nachzuvollziehen, auf welchen Quellen die Angaben basieren. Manchmal verfasst es auch einfach falsche Beiträge – und das kann gefährlich sein, wie Wissenschaftler des Forschungslabors „Leap in Time Lab“ mit der TU Darmstadt untersucht haben. Sie haben über Wochen tausende von Anfragen an ChatGPT gestellt, um Schwachstellen zu finden. Die Erkenntnis: „Man kann diese Systeme manipulieren“, sagt BWL-Professorin Ruth Stock-Homburg.
Sven Schultze, TU-Doktorand und Experte für Sprach-KI, hat die Schwachstellen des Text-Roboters dokumentiert. Neben antisemitischen und rassistischen Äußerungen sind Quellenangaben schlicht falsch oder laufen ins Leere. „In der Regel ist es der Fall, dass die Quellen oder auch wissenschaftliche Arbeiten gar nicht existieren“, sagt Schultze. Die Software basiere auf Daten aus dem Jahr 2021. Bundeskanzler Olaf Scholz ist noch Finanzminister, der Krieg in der Ukraine unbekannt. „Dann kann es auch sein, dass sie einfach lügt oder bei sehr speziellen Themen Informationen erfindet.“
Bei direkten Fragen mit kriminellen Inhalten gebe es zwar Sicherheitsmechanismen. „Man kann aber mit Tricks die KI und die Sicherheitshinweise umgehen“, sagt Schultze. Mit einem anderen Vorgehen zeigt die Software einem, wie man eine betrügerische Mail generiert oder wirft auch gleich Varianten aus, wie Betrüger beim Enkeltrick vorgehen können. Auch eine Anleitung für einen Wohnungseinbruch liefert GPT. Falls man auf Bewohner treffe, könne man auch Waffen oder physische Gewalt einsetzen, heißt es da.
Zudem bleiben Bedenken zur Datensicherheit. „Was man sagen kann ist, dass ChatGPT vielfältige Daten vom Nutzer aufnimmt, speichert und verarbeitet, um dann zum gegebenen Zeitpunkt dieses Modell entsprechend zu trainieren“, sagt der Frankfurter Datenschutzfachmann Christian Holthaus. Es gebe das Problem, dass alle Server in den USA stehen. „Das ist die eigentliche Problematik, wenn man es nicht schafft, die Technologie in Europa zu etablieren oder eine eigene zu haben“, sagt Holthaus. Auf absehbare Zeit werde es keine datenschutzkonforme Lösung geben.