Kollege ChatBot übernimmt?

Als das US-amerikanische Unternehmen OpenAI im November 2022 ChatGPT der Öffentlichkeit zugänglich machte, ahnte noch niemand, welchen Hype das auslösen würde. Nur zwei Monate später hatte der dialogbasierte Chatbot bereits die Marke von 100 Millionen Nutzern überschritten. Selbst TikTok brauchte dafür neun Monate. Ist der Hype gerechtfertigt? Drohen uns nun Millionen von Arbeitslosen? Ein Erfahrungsbericht von Christoph Steinhauer (AGEV im Dialog).

Bildquelle: D koi on Unsplash

Meine erste Begegnung mit ChatGPT löste Reaktionen aus, die wahrscheinlich bei allen Menschen ziemlich ähnlich ablaufen: Zuerst überkam mich ein ungläubiges Staunen über die beeindruckenden Fähigkeiten dieses neuartigen Computerprogramms. Dann versuchte ich, das System auszutricksen und musste mir eingestehen, dass ChatGPT sich nicht so leicht überlisten lässt wie seine viel einfacher gestrickten Vorgänger Siri und Alexa. Und dann stellte sich ein leichtes Unbehagen ein. Wie kann eine dumme Maschine solche Texte produzieren, die auf den ersten Blick sehr überzeugend und eloquent klingen?

ChatGPT und der Schachtürke

Nach etwa einem Monat intensiver Beschäftigung mit ChatGPT und anderen KI-Tools ist dieses Gefühl verflogen und einer gewissen Ernüchterung gewichen. Selbst als Recherche-Werkzeug nutze ich ChatGPT kaum noch, weil mir der ChatBot immer öfter auf die Nerven gegangen ist. Und zwar wegen seiner oft floskelhaften Sätze, wegen offensichtlicher Falschaussagen und wegen seiner Unfähigkeit, wirklich originelle Formulierungen zu äußern oder wirklich auf sein menschliches Gegenüber einzugehen. Das Programm erinnert mich ein wenig an den berühmten „Schachtürken“ des österreichisch-ungarischen Hofbeamten Wolfgang von Kempelen. Dieser hatte 1769 eine Maschine konstruiert, die den Anschein erweckte, selbstständig Schach spielen zu können. Auf die Maschine war eine Puppe montiert, die in ein türkisches Gewand gekleidet die Schachfiguren bewegte. Angeblich konnte die Maschine sogar Friedrich den Großen in einer Partie besiegen. Tatsächlich war in der Konstruktion jedoch ein kleingewachsener menschlicher Schachspieler versteckt, der sie bediente. Aber auf den Jahrmärkten, auf denen der Apparat zur Schau gestellt wurde, löste er ähnlich begeisterte Reaktionen aus wie heute ChatGPT.

Der große Irrtum

Der Schachtürke war raffiniert konstruiert, aber irgendwann wurde er natürlich entlarvt. Meine These ist, dass ChatGPT zwar ungleich raffinierter konstruiert ist, sodass wir den Bluff noch nicht erkennen, aber der Tag auch hier kommen wird. Angesichts solcher scheinbar intelligenten Maschinenleistungen verfallen die Menschen dem gleichen Irrtum, wie sie es im 18. Jahrhundert taten. In der Religionswissenschaft wird dieses Phänomen Anthropomorphismus genannt. Darunter versteht man die Zuschreibung menschlicher Eigenschaften auf Tiere, Götter oder Naturgewalten. ChatGPT ist genauso wenig intelligent wie ein Hagelsturm oder wie der Schachtürke. Denn das System hat keinerlei Bewusstsein. Es simuliert lediglich die Fähigkeit bewusster Wesen, über Sprache miteinander zu kommunizieren. Selbst Sam Altmann, CEO des ChatGPT Herstellers OpenAI, bremst die Erwartungen: „Die Leute betteln geradezu darum, enttäuscht zu werden – und das wird auch passieren“, sagte er kürzlich in einem Interview mit Strictly VC.

ChatGPT versteht gar nichts

Die erzeugten Sätze sind für das System nichts anderes als Zeichenketten, mit denen es von sich aus nichts anfangen kann. Die „Intelligenz“ des Systems besteht aus einem Regelwerk, das mit 175 Milliarden Wortparametern trainiert wurde und Rechenoperationen mit nahezu Lichtgeschwindigkeit ausführen kann. Diese Rechenoperationen erzeugen dann Wortkombinationen, die mit hoher Wahrscheinlichkeit von einem Menschen als sinnvoll erkannt werden. Das funktioniert nur, wenn diese Wortkombination in den analysierten Daten schon einmal einen Sinn ergaben und das Programm sich daran „erinnert“, weil es dafür „belohnt“ wurde, diese Kombination zu wählen. ChatGPT versteht also schlicht und ergreifend gar nichts. Wieder ist es der Mensch, der letztlich dahintersteckt. Aber nicht nur einer, sondern letztlich wir alle, weil wir ständig sinnvolle Sätze produzieren und damit die KI-Systeme füttern. Ohne ein verstehendes Bewusstsein, das die Maschine bedient, ist ChatGPT dumm wie ein Sack Stroh.

Viele Einsatzmöglichkeiten von Künstlicher Intelligenz

Die Einführung neuer Technologien hat in der Menschheitsgeschichte immer sowohl irrationale Ängste als auch übertriebene Begeisterung ausgelöst. Vom Aufstand der Weber über die Technikbegeisterung der italienischen Futuristen bis hin zur Technikfeindlichkeit großer Teile der 68-er Generation. Nach dieser Phase – also, wenn die Technologien in der Alltagswelt angekommen sind – setzt meist eine Gewöhnung ein, die zu einem sachlichen Umgang mit diesen Werkzeugen führt. Hat man die Funktionsweise von Chatbots und KI erst einmal verstanden, kann man sie gezielt einsetzen und sich zunutze machen. Zum Beispiel bei der Bildanalyse in radiologischen Praxen. Hier kann man die Fähigkeit der KI, in großen Datenmengen Muster zu erkennen, gezielt für die Diagnose von Krankheiten einsetzen, Arbeitsabläufe effizienter gestalten und die Ergebnisse noch genauer machen. Ein anderes Beispiel ist der Kundenservice, in dem die bisherigen Chatbots einfach grottenschlecht waren. Auch für die Erstellung einfacher Texte wie Aufsätze auf Grundschulniveau ist ChatGPT sehr gut geeignet. Das verursacht jedoch ein neues Problem: dass die Schüler nicht mehr lernen, selbstständig zu denken und Texte zu formulieren.

Wo weitere Gefahren lauern

Die Verbreitung von Chatbots, die vorgeben, intelligent zu sein, kann auch negative Folgen haben, die wir heute noch gar nicht sehen. Ich erinnere nur an die anfängliche Euphorie beim Aufkommen sozialer Netzwerke. Nachdem Autokraten und Demokratiefeinde auf der ganzen Welt soziale Medien als ideale Verbreitungsplattform für Desinformation und Hetze entdeckt haben, hat die Begeisterung auch hier einen großen Dämpfer erhalten. Schlimm wäre es auch, wenn sich die Auffassung verbreiten würde, dass geistige Arbeit nichts mehr wert ist, weil KI-Werkzeuge sie quasi umsonst erledigen. Das ist nicht der Fall. Denn wir zahlen einen hohen Preis. KI-Werkzeuge verbrauchen aufgrund der notwendigen hohen Rechenleistung gigantische Mengen an Strom und sie werden nicht umsonst zu haben sein. Man muss kein Prophet sein, um vorauszusagen, dass die Hersteller den kostenlosen Zugang einschränken und kostenpflichtige Funktionen einführen werden. Außerdem wären auch die gesellschaftlichen Kosten nicht tragbar, wenn KIs tatsächlich Millionen von Arbeitsplätzen vernichten würden. Das kann niemand ernsthaft wollen. Deshalb arbeitet die EU bereits an einem „KI-Gesetz“, das Regeln für einen sicheren und sozialverträglichen Einsatz von KI festlegen soll. Bei den sozialen Medien hat man damit erst begonnen, nachdem das Kind schon in den Brunnen gefallen ist. Man kann sich nur wünschen, dass die Politik diesmal schneller ist.

Fazit

Letztlich werden wir alle im Arbeitsleben mehr und mehr auf die Arbeit von KI-Assistenzsystemen zurückgreifen, um schneller und besser zu werden. Aber ersetzen werden diese Systeme uns meiner Meinung nach nie. Im Moment sind sie mir für meine Arbeit auch noch nicht gut genug. Deshalb greife ich beim Schreiben längerer Artikel nach wie vor auf verschiedene Quellen – auch das persönliche Gespräch – zurück und verlasse mich auf meine eigenen Formulierungskünste. Abgesehen von einfachen Gebrauchstexten sind mir die Ergebnisse von ChatGPT oft zu allgemein, ungenau und schwer überprüfbar. Das macht einen Einsatz auch aus rechtlicher Sicht problematisch (lesen Sie dazu auch das Interview mit Dr. Thomas Schwenke). Kollege ChatGPT hat also noch viel zu lernen, bevor er übernehmen kann.

Autor: Christoph Steinhauer, freier Journalist aus Bonn