Zum Inhalt springen

Schwerpunkt

„Programme wie ChatGPT werden maßlos überschätzt ...“

Ein Gespräch mit Alexander Noack über generative KI und ihre Auswirkungen

Foto: Weser Kurier Bremen

Er ist in der Softwareentwicklung tätig und hält in seiner spärlichen freien Zeit auch Vorträge zu aktuellen Themen aus Forschung und Praxis der künstlichen Intelligenz (KI), insbesondere im Hinblick auf deren politische oder gesellschaftliche Auswirkungen. Außerdem fungiert er als Pressesprecher des Chaos Computer Club Bremen e.V.

Was bedeutet eigentlich der Begriff „generative“ KI?

Wir unterscheiden grundsätzlich zwischen spezialisierten und generativen KI-Systemen. Spezialisierte Programme werden zum Beispiel in der Bilderkennung eingesetzt, etwa wenn es darum geht, Gesichter zu verarbeiten oder einen Hund auf einem Foto zu erkennen. Sie sind für Aufgaben der Klassifikation verwendbar – handelt es sich um ein Bild mit Hund oder nicht – oder für solche der Regression, d.h. zur Extrapolation von Daten aus einem Datenpool, der bestimmte Eigenschaften aufweist, sodass eine mathematische Lösung für die Frage gefunden werden kann, wie sich der Datensatz entwickelt. Das könnte man auch als eine Art Simulation bezeichnen. Dabei kommen verschiedene Trainingsmethoden zum Einsatz. Spezialisierte KI wird durch sogenanntes „supervised learning“ trainiert, indem man dem Programm bestimmte Bilder zeigt und mit dem jeweils korrekten „Label“ verknüpft, also zum Beispiel die Gesichtszüge eines Hundes zeigt und im Feedback als solches bestätigt.

Beim „unsupervised learning“ wird die Maschine dazu trainiert, selbst Gemeinsamkeiten zwischen den Objekten zu finden. Empfehlungsalgorithmen arbeiten so, etwa wenn aus Filmen, die eine Person in der Vergangenheit gesehen hat, ein Profil gebildet wird und daraus Vorschläge für neue Filme abgeleitet werden. Schließlich gibt es noch das „reinforced Learning“, bei dem das System selbst einen Datensatz erzeugt. Bei dessen Anwendung bekommt es ein Feedback, um zu lernen, wie es sich in einer bestimmten Umgebung verhalten soll. Da sind wir auf dem Feld der generativen KI. AlphaGo wäre dafür ein Beispiel. Es beherrscht das Brettspiel Go meisterhaft. Zunächst wurde es mit den Regeln gefüttert, dann bekam es auf seine Spielzüge hin Feedback, mittlerweile schlägt es sogar Großmeister.

Wie arbeitet ChatGPT?

KI-Systeme wie ChatGPT funktionieren im Wesentlichen auf statistischer Basis. Ein Sprachystem  errechnet für jedes Wort, das es generiert, die Wahrscheinlichkeit, mit der dieses in den jeweiligen Kontext passt.

Beherrscht es die Regeln der Grammatik oder reproduziert es diese nur statistisch, also zufällig?

Von Zufall würde ich hier nicht sprechen. Es ist ja mit einem Satz Sprachregeln gefüttert worden. Natürlich versteht es diese nicht so, wie ein Mensch, der sich über Sinn und Funktion der jeweiligen Regel klar ist. In der Formulierung von Sätzen geht es also regelhaft vor, in der Auswahl der Worte statistisch, woraus auch eine Fehlerhaftigkeit entsteht. ChatGPT hat das Ziel, Sätze zu generieren, die von seinem Gegenüber als plausibel akzeptiert werden. Manchmal erfindet es dann Dinge, quasi um das Gespräch am Laufen zu halten. So erging es dem amerikanischen Anwalt, der einen Schriftsatz vom Chatprogramm hat schreiben lassen. Vom Gericht bekam er eine böse Reaktion, weil das Programm Urteile samt Fallnummern einfach erfunden hatte.

In der Öffentlichkeit kursieren wieder verstärkt Phantasien, in denen Maschinen die Macht übernehmen. Wie denkst du darüber?

Die Gefahr, dass die KI auf einmal „schlauer“ wird als wir, sehe ich im Moment noch nicht. Irgendwann könnte der Zeitpunkt kommen, wo Systeme von menschlicher Intelligenz nicht mehr unterscheidbar sind. Auf ChatGPT trifft das sicher nicht zu.

Wie sollte die Gesellschaft auf neue Formen generativer KI reagieren?

Das ist grundsätzlich ein weites Feld. Ich hielte es für richtig, wenn solche Anwendungen gesetzlich reguliert würden, vor allem in Fällen, wo sie Entscheidungen treffen, die sich auf das Leben von Menschen auswirken. Das beginnt mit der Vergabe von Krediten, geht über Freiheitsentzug in der Justiz bis hin zu Fragen der medizinischen Diagnostik und ähnlichem. Die Entscheidung sollte nie von einer Maschine alleine getroffen werden, hier sollte vorschriftsmäßig ein Mensch das letzte Wort haben. Grundsätzliche Bedenken stellen sich ein bei der Entwicklung militärischer Systeme, die autonom funktionieren, sich selbst Ziele suchen und im schlimmsten Fall die Entscheidung zum Abschuss treffen. So etwas sollte in nationalen Gesetzen und internationalen Verträgen geächtet werden.

Für wie realistisch hältst du solche Forderungen?

Da ist sicher eine Menge politischer Arbeit zu leisten. Die Politik wird nur handeln, sofern die Zivilgesellschaft Druck entfaltet. Wir hängen in der Digitalisierung sowieso hinterher, und in diesem Zusammenhang hat man den Internet-Konzernen zuviel Macht zugestanden, die eigentlich nicht in die Hände privater Firmen gehört. Zu denken wäre an die große Abhängigkeit staatlicher Organe von Microsoft, die jetzt gerade dabei sind, ihr ganzes Portfolio in Richtung Cloud zu bewegen. Privatleute haben bereits jetzt keine große Alternative zu Microsoft 365, wenn sie Produkte der Firma nutzen wollen. Doch auch öffentliche Institutionen wie Schulen müssen ihre Daten der Cloud anvertrauen – oder tun es jedenfalls, was dazu führt, dass bestimmte Programme, Office-nahe Dienste wie etwa MS-Teams, laut dem Bundesdatenschutzbeauftragten in der Schule gar nicht verwendet werden dürften. Es passiert natürlich trotzdem, aus Mangel an bekannten Alternativen.

Wie sollte das Bildungswesen auf die neuen Techniken reagieren?

Das Stichwort lautet Medienerziehung, soviel kann ich sagen, wiewohl ich kein Pädagoge bin. Das bedeutet zum einen, vor Gefahren zu warnen, aber es hat auch eine andere Seite: Produkte der KI können Werkzeuge der Selbstermächtigung sein. Letzteres kommt mir in den öffentlichen Debatten oft zu kurz. Es wird, zu recht, der Einfluss von Konzernen wie Meta und Amazon problematisiert, vergessen wird jedoch gelegentlich, dass wir eine große Open-Source-Szene haben, die für sehr viele Bedürfnisse nicht-kommerzielle Angebote zur Verfügung stellt. Sie stellt in gewisser Weise das Gegenteil zum dominierenden Plattform-Kapitalismus dar: Alle können kostenlos darauf zugreifen und auch an der Entwicklung partizipieren. So steht etwa mit Matrix ein hervorragendes Tool für Kommunikation bereit. Ich frage mich, ob dies im medienpädagogischen Bereich genügend berücksichtigt wird.