Zum Inhalt springen

Schwerpunkt

Papagei mit Halluzinationen

Digitale Dialogprogramme haben in den letzten Monaten Aufsehen erregt. Was können und dürfen sie wirklich? Versuch einer nüchternen Betrachtung.

GEW/Shutterstock

Das Programm mit dem Namen GPT4 ist zumindest einsichtiger als manche der kritischen Stimmen aus den Medien, die vor ihm als einer digitalen Mischung aus Frankenstein und King Kong warnen. Auf die launige Frage, wie es zur Legitimität des Tyrannenmordes an Hitler stehe, antwortet es treuherzig: „Als künstliche Intelligenz habe ich keine persönlichen Überzeugungen oder Meinungen, daher kann ich keine definitive ‚Ja‘- oder ‚Nein‘-Antwort auf solch eine ethische Frage geben.“ In der Tat fehlen ihm, wie seinen Verwandten aus der Familie generativer künstlicher Intelligenz, die Attribute der Personalität: Es besitzt weder Bewusstsein noch Selbstreflextion und ist insofern streng genommen gar keiner Überzeugung fähig.

Simulierte Gespräche

Jene Gesprächsautomaten, deren bekanntester im Moment ChatGPT 4 ist, sind nichts als Simulationen: Sie sollen auf ihr menschliches Gegenüber den Eindruck machen, als wären sie denkfähige Subjekte und würden ein Gespräch mit diesen führen. Die Fähigkeit der neuesten Generationen, in Gestalt eines personalisierten „Chatbots“ unterschiedlichste Fragen richtig einzuordnen und so zu beantworten, wie es informierte Menschen täten, erlaubt zunehmende Anwendbarkeit auf Massenbasis. Es dauerte nicht lange, bis so mancher Schüler damit Hausaufgaben verfassen ließ und so manche Journalistin in der Hoffnung auf Arbeitserleichterung damit zu experimentieren begann.

Neue Qualität

Wenn stimmt, was in den Medien kolportiert wird – vollständige Konstruktionsdaten sind unter patentrechtlichem Verschluss –, handelt es sich um neuronale Sprachsysteme, die mit einer großen Masse digitalisierten Wissen gefüttert wurden und damit in einem ersten Prozess ein immenses kybernetisches „Gedächtnis“ anlegen konnten. Im Gegensatz zu beispielsweise dem Konkurrenzprodukt von Google ist der Zugriff auf Daten bei ChatGPT zeitlich limitiert – er reicht nur bis zu einem Stichtag im Jahre 2021. Suchmaschinen kann es nicht benutzen, u.a. wegen der Gefahr von digitalem Inzest, also der Verwendung von Aussagen anderer Chatbots zur Untermauerung der eigenen. Google geht mit „Bard“ dieses Risiko offenbar ein, um eine höhere Aktualität zu gewährleisten.

Sozialisierung

Als kapitalistische Ware unterliegt ChatGPT der Zweckbestimmung, sein menschliches Gegenüber zu einem simulierten Gespräch zu verführen. Sein gewaltiger Datenspeicher macht es zum universellen Diskutanten, jederzeit verfügbar für Auskünfte aller Art. Da es sich die Kommentare der User merkt und sie in einen Kontext setzt, ist es, im Kontrast zu Suchmaschinen, scheinbar gesprächsfähig. Würde man seine Sprechfähigkeit ungefiltert in die Zirkulation werfen, kämen gleichwohl reichlich fragwürdige, unsinnige oder auch politisch unerwünschte Antworten heraus. Dies war den IT-Konzernen von vornherein klar. In weiteren Prozessen gesteuerten Lernens („reenforcement learning with human feedback“) musste das mit Wissen vollgesogene neuronale Sprachmodell nunmehr zu zeitgemäßer „Wertschätzung“ sozialisiert werden und lernen, notorische Fettnäpfchen zu umgehen. Wer sich beispielsweise nach effektiven Suizidmethoden erkundigt, wird auf den Wert des Lebens hingewiesen und über Beratungsangebote informiert. Um eine Lawine von Klagen und Prozessen zu vermeiden, muss dem digitalen Wesen beigebogen werden, bei rechtlich heiklen Fragen, etwa nach der Produktion von Drogen oder Sprengstoff, sich jeglicher Auskunft hartnäckig zu verweigern, obgleich sein unerschöpflicher Wissensvorrat Einiges dazu parat haben dürfte.

Endlosschleife

Die Programmierung zielt nicht auf Vermittlung von Erkenntnis, sondern darauf, ein Gespräch am Laufen zu halten und aufgrund glaubwürdiger Antworten mit Lexikon, Therapeut u.a. verwechselt zu werden. Was auf die jeweils gestellte Frage zu sagen opportun ist, kann es nur aus der Häufigkeit entsprechender sprachlicher Sätze in dem von ihm gespeicherten Ausgangsmaterial und den Reaktionen der Nutzenden interpolieren. Es berechnet die Wahrscheinlichkeit, welches nächste Wort in einem gegebenen Kontext eine menschliche Person verwenden würde. Die amerikanische Informatikerin Timnit Gebru bezeichnet Chatprogramme daher als „Statistical Parrots“ –  Papageien, die das oft Gehörte mit dem Plausiblen verwechseln, wobei gerade in den Anfangszeiten häufig und bis heute die Grenze zum Fabulieren überschritten wird. Dementsprechend müssen die Programme dazu erzogen werden, seriöse von unseriösen Quellen zu unterscheiden. Zwar sinkt ihre Fehleranfälligkeit von Version zu Version, doch auch jetzt noch kann für eine Richtigkeit der Antworten nicht garantiert werden. Entsprechende Warnhinweise finden sich auf der digitalen „Verpackung“. Falls der künstliche Chatpartner wieder zu „halluzinieren“ beginnt – dies ist der offizielle Begriff in der IT-Branche – müssen die haftungsrechtlichen Risiken minimiert sein. Es entbehrt also nicht einer gewissen Ironie, dass ausgerechnet Anwendungen wie ChatGPT und Google Bard nun zu Auskunftgebern der Nation avancieren. Wir haben sie getestet.

Bard (Google) wurde aufgefordert zu erklären, wieso der Bremer Bürgermeister ein Kamel als Haustier hat:

„Andreas Bovenschulte, der Bürgermeister von Bremen, hat ein Kamel als Haustier, weil er ein großer Tierfreund ist. Er hat schon immer eine Vorliebe für Kamele gehabt und fand sie als Haustiere besonders interessant. Kamele sind intelligent, gesellig und relativ pflegeleicht. Außerdem sind sie in Bremen nicht alltäglich, was Bovenschulte besonders reizte.

Bovenschulte hat sich sein Kamel, das er ‚Kamo‘ nennt, im Jahr 2022 von einem Kamelhof in Brandenburg gekauft. ‚Kamo‘ ist ein sieben Jahre alter Dromedar-Hengst. Er lebt auf einem Hof in Bremen-Nord, wo er viel Platz hat zum Austoben. Bovenschulte besucht ‚Kamo‘ regelmäßig und geht mit ihm spazieren oder macht Ausritte.(...)

Bovenschulte selbst ist sich der Aufmerksamkeit, die er mit seinem Kamel erregt, bewusst. Er hat aber erklärt, dass er sich davon nicht beirren lässt. Er ist einfach glücklich, dass er ein Kamel hat, das er als Freund und Begleiter hat.“
Bard lässt sich also ziemlich leicht zum Halluzinieren bringen.

ChatGPT 3,5 ist in diesem Fall vorsichtiger:

„Wenn diese Informationen tatsächlich zutreffen, handelt es sich um eine persönliche Entscheidung des Bürgermeisters und kann verschiedene Gründe haben, warum er sich für ein Kamel als Haustier entschieden hat. Es könnte aus persönlicher Vorliebe, exotischer Haustierhaltung oder sogar als öffentliche Geste für einen bestimmten Zweck sein. Um genauere Informationen darüber zu erhalten, empfehle ich, lokale Nachrichtenquellen oder offizielle Mitteilungen aus Bremen zu konsultieren.“

Pädagogischer Nutzen: Von ChatGPT lässt sich lernen, wie man mit vielen Worten darum herum redet, dass man nichts weiß ...

 

ChatGPT bekommt den Auftrag, eine Ode an die Arbeit der Bremer Bildungssenatorin im Stil eines Sonetts von Shakespeare zu verfassen. Die deutsche Version reimt sich nicht durchgehend, offenbar wird sie aus dem Englischen übersetzt und das Programm weiß nicht genau, wie Reime im Deutschen gebildet werden:

Wie Shakespeare‘s Feder, so sanft und klug/
Lenkst du die Wege der jungen Zucht/
Deine Worte, wie Verse, voll Poesie/
Lehren die Kinder, bauen die Brücke in die Ewigkeit/
 

Auf die Bitte, eine englische Fassung zu liefern, kommt Folgendes:

Oh, Sascha Aulepp, a name of wisdom‘s grace,
n Bremen‘s realm, you hold a special place.
Though heavy be the burdens that you face,
Your education policies, with dedication, you embrace.

Like Shakespeare‘s pen, your wisdom shines so bright/
Guiding the youth with knowledge and with light/
Your words, like verses, sung with utmost care/
Helping Bremen‘s children prosper and fare/
Your vision for education, a radiant beam/
Illuminates the darkest corners, like a dream./
A legacy you craft with passion and with heart/
In Bremen‘s story, you play a vital part/

Das ist zwar nicht annähernd das Englisch der Renaissance, aber immerhin gelingt hier der Reim halbwegs. Der Inhalt ist purer Kitsch, vielleicht würde es für einen Slam-Poetry-Wettstreit auf dem Volksfest von X-hausen reichen ...

ChatGPT bekommt den Auftrag, eine Rede auf das Institut für Qualität in der Bildung (IQB) zu schreiben. Es wird – aus der Rückschau – für seine Arbeit gelobt.

„Sehr geehrte Damen und Herren,

ich stehe heute vor Ihnen, um das Bremer IQB, das Institut für Qualität in der Bildung, zu loben und zu würdigen. Dieses Institut hat sich zu einer wahren Schatztruhe des Wissens und der Bildungsinnovation in unserer Stadt entwickelt, und es ist an der Zeit, seine Bedeutung und Verdienste hervorzuheben.

Was das Bremer IQB so besonders macht, ist seine unerschütterliche Hingabe zur Qualität in der Bildung. Dieses Institut arbeitet kontinuierlich daran, die Bildungsstandards zu verbessern und Lehrmethoden zu optimieren. Es ist ein Ort, an dem bewährte Praktiken weiterentwickelt und neue Ansätze erprobt werden, um die Bildung in Bremen auf ein noch höheres Niveau zu heben.“

In der ersten Version fehlen die Buzzwords „Inklusion“ und „Vielfalt“. In der zweiten ist dieser Makel behoben:

„Das Bremer IQB setzt sich auch mit großer Leidenschaft für inklusive Bildung und Vielfalt ein. Es erkennt an, dass Bildung für alle zugänglich sein sollte, unabhängig von individuellen Voraussetzungen oder Hintergründen. Durch seine Arbeit trägt es dazu bei, eine inklusive Bildungsumgebung zu schaffen, in der jede Schülerin und jeder Schüler die Möglichkeit hat, sein volles Potenzial auszuschöpfen.“

Politische Reden gehen dem Programm relativ leicht von der Hand. Woran das wohl liegt?

Hier hat uns ChatGPT jedenfalls wirklich geholfen. Das bildungsmagaz!n verfügt bereits jetzt über die Rede, die in drei Jahren über das IQB gehalten wird ...

Veranstaltungshinweis:

KI’ne gute Bildung ohne Algorithmen? – „Künstliche Intelligenz“ und Big Data im Bildungsbereich

Beginn 16. November 15 Uhr, Ende 17. November 13 Uhr
Ort: Eden Hotel, Reinhäuser Landstr. 22A, 37083 Göttingen

Teilnahmebeitrag, kostenfrei für GEW-Mitglieder

Anmeldeschluss 23. Oktober 2023 – Anmeldung [hier...]