ChatGPT: Chancen und Risiken einer „Weltmaschine“

Prof. Dr. Rolf Schwartmann_2 (Bild: Bild:Thilo Schmülgen/TH Köln)

Seit November 2022 ist die Software ChatGPT für jedermann frei verfügbar. Der Textroboter hat das Potential, die Menschheit an neue Grenzen zu bringen. Am Ende steht die Selbstbestimmung des Menschen auf dem Spiel.

30.01.2023

Prof. Dr. Rolf Schwartmann, Leiter der Forschungsstelle für Medienrecht an der TH Köln; Vorsitzender der Gesellschaft für Datenschutz und Datensicherheit (GDD) e.V.

Die Software simuliert „Sprechen“ und „Denken“

Nach einer „Selbstbeschreibung ist ChatGBT „ein Chatbot-System, das darauf ausgelegt ist, menschliche Konversationen zu simulieren.“ Er speist sich aus den Daten des digital gespeicherten Weltwissens. Er kommuniziert mit uns über unsere komplexe Sprache. Das war bisher die alleinige Domäne des Menschen. ChatGPT ist keine Zauberei. Die Anbieter solcher Programme geben ihr Ziele vor, die oft genug erreicht werden. Per Algorithmus werden in der Werbewirtschaft Kunden zum Produktwechsel animiert. Man kann auch Wähler, die für einen politischen Wechsel offen sind, gezielt beeinflussen. Es verleiht denen, die das Programm beherrschen aber potentiell die Macht, die Welt buchstäblich nach ihrem Willen zu programmieren.

Offenheit für die neue Technik

Die Welt ist offen für die neue Technik, auch wenn deren Risiken offenkundig sind. An Schulen und Hochschulen wird der Einsatz erprobt. Da man die Anwendung nicht verbieten kann, soll man lernen sie zu nutzen und zu verstehen. Ziel ist es, sich im Zweifel über deren Entscheidungen und Ratschläge hinwegzusetzen. Auch nach dem Entwurf der KI-Verordnung der EU, der bis zum Frühjahr 2024 geltendes Recht sein soll, soll der Mensch die Letztentscheidung nach der Maschine haben. Da es um den Einsatz von KI im Alltag geht, setzt die Überprüfung und Kontrolle der Software aber Transparenz über die Funktionsweise des Programms und über dessen Datenbasis bei jedem Anwender voraus. Man muss grundsätzlich vorhersehen oder wenigstens nachvollziehen können, warum die Software etwas auf eine bestimmte Weise „entscheidet“. Das ist aber schon bei einem Navigationssystem oder einem Schachcomputer nicht möglich. Deren Entscheidungsvorschlägen kann man aus dem Bauch heraus nicht sinnvoll widersprechen.

Transparenz über Zwecke und Datenbasis

Auch Anbieter müssen offen legen, was sie mit dem Einsatz des Programms, das künftig in das Office-Paket von Microsoft eingebunden werden soll, bezwecken Schließlich kann der Programmierer über das Programm Einfluss auf unser Denken nehmen. Das kann fatale Folgen für die Selbstbestimmung der Nutzer haben. (Hochschul)Lehrer können die Software dann Aufgaben erstellen lassen, die Schüler und Studierende der Bot dann zur Lösung eingeben. So wird die Maschine immer „schlauer“ und der Mensch muss nicht mehr denken. Die Technik ist heute so modern, wie es 1690 der erste Prototyp der Dampfmaschine war. Die industrielle Revolution nahm 1769 mit dem Patent auf dessen Fortentwicklung ihren Anfang. Mit der Dampfmaschine haben wir die Grenzen unserer Körperkraft überwunden.

ChatBT darf unser Denken nicht ersetzen

Der Bot hat das Potential die Grenzen unseres Denkens zu erweitern, indem er Denkprozesse simuliert. Schon heute liefert die Software bessere Ergebnisse als mäßig gute Schüler und Studierende. ChatGBT wird weltweit durch unzählige Nutzeranfragen trainiert. Man kann seine Lösungen von menschlich generierten Resultaten nicht unterscheiden. Kontrollsoftware versagt derzeit. Selbst wenn ein Programm maschinelle Herkunft einer Aussage attestieren würde, wäre das wertlos. Man könnte die Richtigkeit der Überprüfung ja nicht nachvollziehen.

Umdenken in der Ausbildung

Wissensüberprüfung muss künftig auf mündliche Prüfungen und Klausuren setzen. Perspektivisch sind Hausarbeiten als Maßstab für eine faire Bewertung, gleich ob in Schule, Studium oder Wissenschaft oder jeglicher berufsqualifizierender Leistungsbewertung untauglich. Bachelor- und Masterarbeiten sind Auslaufmodelle. Den Einsatz der Technik zu verbieten oder gar unter Strafe zu stellen, hilft nicht, wenn die maschinelle Herkunft nicht nachweisbar ist.

Gefahr für Bildung?

Aber ist das alles ein Problem? Nicht in jedem Fall. Man kann selbstbestimmt gegen ärztlichen Rat einer medizinischen Empfehlung eines Computers folgen und aus Prinzip immer anders fahren, als das Navigationssystem es vorschlägt. In der Ausbildung ist es aber problematisch. Das Wissen der Technik kann man sich zunutze machen, indem Schüler mit der KI über Lessings Ringparabel im „Nathan“ diskutieren und sich dann fragen, ob sie dummes Zeug erzählt. Man kann die KI sogar Ausbildungs- und Forschungsthementhemen empfehlen lassen. Der Mensch nutzt sie als kreativen Ideengeber, diskutiert die Themen mit ihr und erweitert so seinen Horizont um die Perspektive der Simulation der KI.

Selbstbestimmung in Gefahr

Dabei darf man nicht übersehen, dass die Maschine so Themen beeinflusst oder gar setzt, und dem Menschen Forschungsaufträge zur gemeinsamen Lösung erteilt. Wir müssen die Technik aus unseren Köpfen fernhalten. Schließlich steht unsere Selbststimmung auf dem Spiel. Die Gefahr sie abzugeben, ist jetzt real.

Januar 2023


M
M