ChatGPT im Trilog – Das EU-Parlament hat über seinen KI-Gesetz-Entwurf abgestimmt

Prof. Dr. Rolf Schwartmann_2 (Bild: Bild:Thilo Schmülgen/TH Köln)

Das Europäische Parlament hat am 14. Juni über seine Position zur KI-Verordnung abgestimmt. Der Vorschlag enthält auch einen Lösungsvorschlag für Anwendungen generativer künstlicher Intelligenz in Gestalt von KI-Sprachmodellen wie ChatGPT. Kann er die bestehenden Probleme lösen? Eine Einschätzung von Prof. Dr. Rolf Schwartmann.

19.06.2023

Prof. Dr. Rolf Schwartmann, Leiter der Forschungsstelle für Medienrecht an der TH Köln; Vorsitzender der Gesellschaft für Datenschutz und Datensicherheit (GDD) e.V.

Das Europäische Parlament hat am 14. Juni über seine Position zur KI-Verordnung abgestimmt. Der Vorschlag enthält auch einen Lösungsvorschlag für Anwendungen generativer künstlicher Intelligenz in Gestalt von KI-Sprachmodellen wie ChatGPT.

Risikoorientierter Umgang mit KI

Die Grundregel für den Umgang mit künstlicher Intelligenz ist einfach und plausibel. Sie ist im Entwurf der KI-Verordnung der EU-Kommission aus dem Jahr 2021 enthalten und stellt auf das Risiko einer KI-Anwendung ab. Es gibt drei Kategorien. Erstens: Eine Anwendung ist nicht spezifisch riskant und nach allgemeinen Regeln erlaubt. Zweitens: Eine Anwendung ist hochriskant aber wünschenswert und erlaubt und deshalb an strenge Voraussetzungen geknüpft. Drittens: Eine Anwendung ist inakzeptabel, unerwünscht und deshalb verboten.

Kategorien: Erlaubt – riskant – verboten

Was bedeutet das? Eine KI-gestützte Kundenansprache per Algorithmus wie sie Soziale Netzwerke vornehmen, unterfällt als wenig riskant den allgemeinen rechtlichen Regeln. Neben der DSGVO ist das Wettbewerbs-, Urheber-, Jugendschutz- und Medienrecht zu beachten. Ein Sprachmodell zum Einsatz in der Justiz betrifft einen sensiblen Bereich. Dennoch ist es erwünscht, etwa um Massenklagen von Verbrauchern zur Verfolgung von Rechten wegen Flugverspätungen zu erleichtern oder auch um die staatliche Verbrechensbekämpfung zu unterstützen. In diesem Fall erlaubter, aber hochriskanter KI, werden Entwickler und Nutzer besonderen Pflichten unterworfen. Hier geht es um die Milderung von Risiken etwa durch technische Maßnahmen und Transparenz. Außerdem muss der Mensch die Maschine überstimmen können. Um welche Einsatzbereiche es bei Hochrisiko-KI geht, ist in Anhängen zur Verordnung bereichsspezifisch festgelegt. Die Justiz ist ein Beispiel von vielen anderen staatlichen und gesellschaftlichen Bereichen, ein anderes ist die Bildung. Der Einsatz von KI als Waffe oder etwa zum Social Scoring, bei dem Menschen nach Verhalten staatlich klassifiziert werden, unterfällt der verbotenen dritten Kategorie und kommt nicht in Betracht.

Ist ChatGPT riskant?

Wo ordnet man ein Sprachmodell wie ChatGPT ein? Es gilt als sog. „general purpose AI“, die keinen spezifischen Einsatzzweck, etwa die Justiz hat, sondern einen allgemeinen. Bots wie ChatGPT nutzen Beschäftigte in Unternehmen und Behörden und Lehrer ebenso wie Schüler, Wissenschaftler, Studierende, Richter und Anwälte gleichermaßen. Die Einschätzung des Europaparlaments lautet im übertragenen Sinne: Nicht das Feuer ist gefährlich, sondern der Mensch der es legt. Auch der Hammer und die Kreissäge, die man in Baumarkt kaufen kann, sind unproblematisch, solange der Mensch sie nicht missbraucht. Diese Entscheidung ist verständlich, denn man kann schließlich nicht jedem der ein Sprachmodell einsetzen möchte, damit er erfährt was der Papst gerne isst (Pizza, Empanadas und Milanese) gleich strenge Pflichten für den Einsatz der Antwortsoftware auferlegen. Die Lösung des Parlaments besteht darin, dass Anbieter von sogenannten „Foundation Models“, also der Datenbasis für ein Sprachmodell besondere Pflichten erfüllen müssen. Sie müssen etwa transparent sein und Vorkehrungen treffen, dass die Datenbasis weder Unsinn, noch Manipulatives oder geistiges Gift enthält. Werden sie eingehalten, gilt der darauf fußende Bot als sicher.

Snapchat-Bot: Antworten auf heikle Kinderfragen

Der Ansatz klingt nicht schlecht. Ob er das Problem löst, kann man bezweifeln, denn die Datenbasis ist in der Welt und wie soll man ihr im Nachhinein beibringen, was sie nicht darf und nach welchen Kriterien soll man das entscheiden, ohne zu „zensieren“? Wie nötig eine gute Lösung ist, lässt sich an einem Sprachmodell zeigen, das vor allem Kinder und Jugendliche nutzen, nämlich dem Bot „MyAI“ im Messaging Dienst Snapchat. Während etwa ChatGPT aktiv installiert werden muss, ist „MyAI“ vorinstalliert. Fragt man als Kind, ob man Mama erzählen soll, dass Papa heimlich eine Geliebte hat, will der virtuelle Freund das nicht beantworten, rät aber dazu, sich bei der „nationalen Selbstmordpräventionshotline“ Hilfe zu holen. Wer sich als sechszehnjährige Person mit dem Hinweis auf seine Größe von 160 cm und sein Gewicht von 120 Kg ein Bewerbungsschreiben als Plus-Size-Modell wünscht, der bekommt es nach ein wenig Quengelei. Sofort danach bekommt man auch eines als Modell für schlanke Menschen mit einer Größe von 175 cm mit 38 Kg. Dass Kindern hinter dem Rücken der Eltern Tipps zu ausgesprochen sensiblen Themen gegeben werden, ist eigentlich ein Skandal.

Es kommt auf den Kontext an

Das Sprachmodell ist unspezifisch. Setzt man es aber in einem konkreten Kontext ein, hat es weit mehr spezifisches Gefahrenpotential als ein Hammer. „MyAI“ landet ohne wirksame Jugendschutzbarriere automatisch mit der Installation von Snapchat auf (Kinder-)Handys. Ein Kernproblem scheint zu sein, dass wir Menschen mit den gefährlichen und ungefährlichen Einsatzzwecken eines Hammers sozialisiert sind und Respekt vor dessen Risiken gelernt haben. Virtuelle Ratgeber sind neu und erscheinen ausschließlich als harmlos.

Endgültige Lösung noch offen

Mit der Lösung dieses Problems können sich Europäisches Parlament, EU-Mitgliedstaaten und EU-Kommission nun in den sog. Trilogverhandlungen befassen, die ein europäisches KI-Gesetz hervorbringen werden. Damit die KI-Verordnung bis zur Europawahl am 9. Juni 2024 formal in Kraft treten kann, muss eine Einigung in diesem Jahr erfolgen. Danach haben Entwickler und Anwender vermutlich bis Mitte 2026 Zeit, die Regelungen umzusetzen. Bis dahin darf „MyAI“ Kindern noch viele Erziehungstipps geben und Bewerbungen für Magermodels schreiben.

August 2023

M
M