ChatGPT- Wie reguliert man eine Weltmaschine?

sch_k_1-min-690x430.png (Bild: TH-Köln)

Die Nutzung von ChatGPT gerät zunehmend in die Kritik. Stimmen aus Wirtschaft, Staat und Wissenschaft erkennen ebenso wie Datenschutzbehörden, dass der unbedachte Einsatz der Software ein Problem ist. Worauf kommt es bei der Lösung an?

17.04.2023

Prof. Dr. Tobias Keber ist Inhaber der Professur für Medienrecht und Medienpolitik in der digitalen Gesellschaft, Hochschule der Medien (HdM) Stuttgart.

Professor Dr. Rolf Schwartmann ist Leiter der Kölner Forschungsstelle für Medienrecht an der TH Köln.

Regulieren statt verbieten

Bei aller berechtigten Kritik ist es weder angemessen noch hilfreich, ChatGPT pauschal für unzulässig zu erklären. Es ist aber unverzichtbar, die moderne Technik in den europäischen Rechtsrahmen einzupassen.

Kollision mit Rechtsgütern

Die hochaktuelle Technik kollidiert mit Rechtsgütern und legitimen Interessen der europäischen Werteordnung. Wichtige Fragen lauten: Wie steht es um die Transparenz der Algorithmen? Wie verlässlich sind die Ergebnisse der Software? Wie schützt man Kinder und Jugendliche vor nicht altersgerechten Ergebnissen? Wie schützen die Anbieter Persönlichkeitsrechte, geistiges Eigentum und welche Vorkehrungen treffen sie gegen Fake News? In vielen anderen Kontexten, ist der Bot aber völlig harmlos.

ChatGPT muss Aufklären

Wie komplex der Umgang mit ChatGPT auch sein mag. Ohne Fakten zu kennen, kann man der Technik nicht klug, konstruktiv und sinnvoll Regeln setzen. Damit die Politik agieren kann, muss der Anbieter diese Fakten schnell liefern. Der Berichterstatter des Europäischen Parlaments Axel Voss hat sich mit Unterstützung aus der Praxis und der Wissenschaft in einem offenen Brief mit Fragen an Open AI gewandt.[2] Auch die deutschen Datenschutzaufsichtsbehörden erwarten Antworten auf Fragen, die sie dem Unternehmen gestellt haben. Den europäischen Alleingang eines Verbots von ChatGPT durch die Datenschutzbehörde in Italien, halten viele zu Recht für einen Schnellschuss. Immerhin hat er weltweit Aufsehen erregt und Europa wachgerüttelt.

Aufsichtsbehörden müssen klug und konstruktiv agieren

Aktuell müssen sich die Aufsichtsbehörden der Regulierungsaufgabe annehmen, die den Anbieter von ChatGPT beaufsichtigen. Sie müssen Maßnahmen im Rahmen ihrer jeweiligen Zuständigkeit ergreifen. Das muss schnell gehen, wenn es etwas bewirken soll. Weil die Zuständigkeiten divers und oft unklar sind, muss man sich koordinieren.

Gesetze kommen zu spät

Ein Gesetz – zumal eine europäisches – braucht Zeit. Wenn die KI-Verordnung greift, haben sich viele Gefahren von ChatGPT gegebenenfalls längst realisiert. In Brüssel ringt man dennoch mit Hochdruck um die Frage, welche Konsequenzen es hat, wenn ChatGPT als Hochrisiko-KI einzustufen ist. Ist es angemessen, die Allzweckanwendung dem besonderen Risikomanagement-Verfahren, einer kontinuierlichen menschlichen Aufsicht und den weit reichenden Dokumentationspflichten der KI-Verordnung zu unterwerfen? Auch alle, die die Software einsetzen, müssen dann ein besonderes Handling der verwendeten Trainingsdaten vornehmen und haben Aufklärungspflichten gegenüber den Nutzern.

Verbote helfen nicht und sind rechtlich problematisch

Staaten könnten nach geltendem Recht zwar die Abrufbarkeit des Dienstes auf ihrem Gebiet technisch durch Netzsperren unterbinden. Diese Sperren sind aber zum einen leicht umgehbar. Zum anderen verbietet man damit ein Angebot, das in zahlreichen Anwendungskontexten harmlos ist. Ob das vor dem Hintergrund der Grundrechte auch von Nutzern und Anbietern verhältnismäßig ist, ist sehr fraglich.

Schnelles Expertenwissen tut Not

In den USA sind akute Regulierungsmaßnahmen für Software auf Basis künstlicher Intelligenz geplant.  Die Telekommunikations- und IT-Behörde NTIA[3] hat eine öffentliche Konsultation zu potenziellen Maßnahmen[4] lanciert. Die Ergebnisse sollen helfen, politische Empfehlungen auszuarbeiten. Für die Konzeption zur Umsetzung sich daran anschließender Maßnahmen kurzfristig Expertenwissen einzuholen, ist richtig. Das muss aber gezielt und planvoll, etwa durch eine Ad-Hoc-Kommission, erfolgen.

[1] https://dataagenda.podigee.io/38-dr-keber

[2] https://www.gdd.de/aktuelles/startseite/offener-brief-an-das-us-unternehmen-open-ai-als-entwickler-des-textroboters-chatgpt

[3] https://ntia.gov/

[4] https://ntia.gov/press-release/2023/ntia-seeks-public-input-boost-ai-accountability

April 2023


M
M