Künstliche Intelligenz: Werkzeug oder Weltuntergang?

Im März 2023 veröffentlichte das Future of Life Institute einen offenen Brief zum Umgang mit Künstlicher Intelligenz. Tenor: Leistungsstarke Modelle sollen erst weiterentwickelt werden, wenn ihre Risiken handhabbar sind. Berechtigter Einwand oder unnötige Regulierung? Darüber sprachen die TH Köln-Professoren Konrad Förstner, der den Brief unterzeichnet hat, und Gundolf S. Freyermuth.

Prof. Förstner, Prof. Freyermuth: KI-Systeme, die menschlicher Intelligenz Konkurrenz machen – ist das Zukunftsmusik oder schon Realität?

Konrad Förstner Prof. Dr. Konrad Förstner (Bild: Förstner)

Förstner: Noch gibt es keine Artificial General Intelligence, also eine Künstliche Intelligenz, die jede intellektuelle Aufgabe wie ein Mensch lösen kann. Natürlich ist die KI-Entwicklung rasant, unzählige Firmen und Institutionen arbeiten daran, es wird viel Geld investiert. Dementsprechend kann es sein, dass es bald solche Systeme geben wird. Aber es wurde bisher keine ausreichende Technikfolgenabschätzung betrieben. Das heißt, wir bauen Systeme, die wir nicht verstehen. KI ist eine komplexe Thematik. Damit alle Bürger*innen informierte Entscheidungen darüber treffen können, brauchen wir Datenkompetenz.

Freyermuth: Menschen haben die großartige Fähigkeit, Geschichten zu erfinden und dann an sie auch zu glauben – zum Beispiel an die Narration vom Weltuntergang durch Künstliche Intelligenz. Diese Zukunftsangst, entstanden aus der Science-Fiction-Literatur und Hollywood-Filmen, entfaltet seit Jahrzehnten ihre Wirkung. Aber es ist eben nur eine Narration und nicht die Realität. Natürlich befinden wir uns im Hinblick auf Künstliche Intelligenz in einer unübersichtlichen Situation. Aber in solche Situationen hat uns noch jeder technische Fortschritt gebracht. Als die ersten Autos losfuhren, gab es keine Straßenverkehrsordnung, keinen TÜV. Seitdem hat die Automobilisierung unermesslichen Wohlstand produziert. Aber es sind auch weltweit schätzungsweise zwischen 50 und 100 Millionen Menschen im Straßenverkehr gestorben. Man stelle sich vor, die damaligen Menschen hätten das im Vorhinein gewusst. Hätten wir dann jetzt Autos?

Ist es eher Chance oder Gefahr, wenn KIs Menschen bei bestimmten Aufgaben ersetzen können?

Förstner: KIs sind zunächst einmal Werkzeuge, die unsere Fähigkeiten verbessern, so wie Computer oder Fahrräder. Aber ihr Einfluss auf die Gesellschaft ist jetzt schon merklich. Manche Jobs werden wegfallen, zum Beispiel bestimmte intellektuelle Arbeiten wie das Lektorat bei Texten. Es kann sein, dass viele langweilige Arbeiten wegfallen. Das finde ich erstmal gut. Dennoch muss man diese Technikfolgenabschätzung machen: Wer und wie viele Leute werden davon betroffen sein? Wie fangen wir das gesellschaftlich auf? Und kann das System, in dem wir uns befinden, das überhaupt auffangen?

Freyermuth: Bislang waren die Ängste vor dem Verlust von Arbeitsplätzen immer unbegründet. Technologie hat seit Beginn der Industrialisierung stets mehr Arbeitsplätze geschaffen als vernichtet. Natürlich verändern sich beispielsweise schreibende Berufe durch Künstliche Intelligenz. Aber KI ist eine Ermächtigungstechnologie. Ich schreibe und publiziere seit Ende der 90er Jahre auf Englisch. Bis vor zwei, drei Jahren konnte ich das nicht ohne Hilfe tun. Freunde oder meine Söhne, die Muttersprachler sind, haben meine Texte Korrektur gelesen. Heute nutze ich KI-Software. Reiche Menschen konnten schon immer Hilfskräfte anheuern. KI können wir uns alle leisten. Ich sehe also in der KI-Technologie eine große Chance zur Demokratisierung von Wissen und Befähigungen.

Förstner: Diese Demokratisierung hat aber auch einen Preis. In Entwicklungsländern werden Menschen angeheuert, die Daten für das Training von AI-Anwendungen annotieren. Das heißt, unser Luxus wird mit dem Billiglohn anderer mitbezahlt. Außerdem entwickeln wir eine Abhängigkeit. Viele KIs kommen aus den USA oder China, wir haben in Europa noch kein starkes Standbein. Natürlich gibt es mittlerweile offene KI-Lösungen, die von allen genutzt werden können, aber das ist nicht automatisch gegeben. Man muss die Demokratisierung aktiv verfolgen und dafür sorgen, dass alle Zugang haben und den Prozess mitgestalten können. Das ist natürlich auch eine Bildungsfrage.  

Freyermuth: Selbstverständlich braucht es Digital Literacy. Aber bilden kann man sich erst, wenn die Techniken selbst existieren und man zu ihnen Zugang hat. Die große Technikskepsis in den europäischen Eliten führt dazu, dass in China und Nordamerika Dinge produziert werden, die dann in Europa reguliert werden. Ich habe sowohl die amerikanische als auch die deutsche Staatsbürgerschaft, und als Amerikaner sehe ich, dass Europa Weltmeister ist im Regulieren, aber Letzter in der Entwicklung und Anwendung neuer Technologien. Das kann auf Dauer nicht gut gehen.

Förstner: Die Gefahr sind eigentlich nicht die Tools an sich, sondern diese Werkzeuge in den Händen des Kapitalismus. In einem kapitalistischen System können sie bestehende Machtverhältnisse verstärken. Umso mehr brauchen wir die Debatte, wir müssen über das Ziel solcher Technologien nachdenken. Technologie muss den Menschen helfen.

Auch jetzt gibt es schon schädliche KIs, die rassistische oder sexistische Muster reproduzieren. Inwiefern sollte das bei der Entwicklung eines Sicherheitsprotokolls berücksichtigt werden?

Prof. Dr. Gundolf Freyermuth Prof. Dr. Gundolf Freyermuth (Bild: Costa Belibasakis/TH Köln)

Freyermuth: Zu verlangen, dass unsere Medien und unsere Technik besser sein sollen als wir selbst, ist eine problematische Idee, die in Richtung Zensur führt. Man muss die Menschheit verbessern, nicht die Medien künstlich reinigen. Davon abgesehen sollte natürlich beim Training Künstlicher Intelligenzen darauf geachtet werden, dass existierende Diskriminierungen nicht reproduziert werden.

Förstner: Da kann ich nur zustimmen. Das Problem ist, dass die KI-Entwicklung zugespitzt gesagt in der Regel von weißen, privilegierten, promovierten Männern betrieben wird und das Training der Systeme auf menschgemachten Daten basiert. Darin enthaltene Muster werden dann übernommen. Wenn man aber dafür sorgt, dass die Forschungscommunity diverser wird und auch Menschen Zugang bekommen, die klassischerweise nicht dabei sind, dann werden sich diese Probleme auflösen lassen.

Seit der Veröffentlichung des Briefs sind gut fünf Monate vergangen. Wie geht es jetzt weiter?

Förstner: Das Thema ist in der Politik mehr angekommen. Jetzt müssen Expert*innen ran. Denkbar wäre eine Einrichtung wie die Internationale Atomenergie-Organisation, um die Entwicklung zu regulieren. Das ist natürlich bei KI schwieriger als bei nuklearen Waffen – niemand kann im Keller eine Atombombe bauen. Ein Large Language Model zu nutzen, um eine Botfarm zu bauen, ist schon eher möglich. Außerdem sieht man, dass KI in der Wirtschaft angekommen ist und alle Großkonzerne die Entwicklung forcieren. Das Thema wird in der Breite ankommen, und die Politik wird sich damit beschäftigen müssen, ob wir Regulierung brauchen.

Freyermuth: Die letzten beiden Basis-Technologien, die die Wirtschaft und die gesamte Gesellschaft verändert haben, waren die Elektrizität und der Computer. Beide haben 20 bis 25 Jahre gebraucht, um ihre volle Wirkung zu entfalten. Auch bei der Künstlichen Intelligenz werden wir nicht alle Effekte übermorgen sehen. Aber am Ende könnten sie sehr grundlegend sein, und das in einem positiven Sinne.

August 2023

Ein Beitrag von

Carolin Brühl

Team Web-Kommunikation


M
M