Künstliche Intelligenz: Risiken und Regulierungen

Prof. Dr. Roland Klemke (Bild: Thilo Schmülgen/TH Köln)

Das Potenzial Künstlicher Intelligenz (KI) ist groß und wächst immer weiter. Der vermehrte Einsatz birgt aber auch Risiken. Darüber spricht Prof. Dr. Roland Klemke vom Cologne Game Lab im Interview und erklärt, welche Möglichkeiten Regulierungen haben könnten.


Prof. Klemke, welche Risiken bringen KI-Anwendungen mit sich?

Künstliche Intelligenz greift mehr und mehr in verschiedene Lebensbereiche ein und auch der Entscheidungsraum, den KI-Anwendungen haben, vergrößert sich. Beispielsweise wird viel an autonomen Fahrzeugen oder Beurteilungssystemen geforscht. Je mehr Verantwortung wir an eine KI delegieren, desto mehr müssen wir uns darauf verlassen können, dass diese Kl auch in unserem Sinne entscheidet. Das Risiko ist, dass das nicht immer so passiert wie wir uns das wünschen und wir im Zweifelsfall gar nicht mehr durchschauen, auf welcher Grundlage die KI entschieden hat und, ob das fair war. Beispiel: eine KI beurteilt die Kreditwürdigkeit und schätzt eine Person anhand ihrer Adresse negativ ein, weil sie in einem Wohnviertel lebt, in dem viele Leute nicht kreditwürdig sind.

Welche ethischen Aspekte sollten bei der Gestaltung von KI berücksichtigt werden?

Beim Trainieren einer KI, also dem sogenannten maschinellen Lernen, muss ich sicherstellen, dass die Daten den ethischen Grundsätzen genügen. Einer KI, die Entscheidungen auf Bildanalysen trifft, muss ich beispielsweise genügend Diversität in die Trainingsdaten beimischen. Sie kann nicht nur mit weißen männlichen Probanden gefüttert werden, sondern muss alle Bevölkerungsgruppen, Altersstufen, Geschlechter und Hautfarben kennen. Ein weiterer Aspekt ist die Transparenz. KI muss zukünftig so entwickelt sein, dass man nachvollziehen kann, warum diese zu einem bestimmten Ergebnis kommt. Bei einer KI im Bildungssystem, die eine Prüfungsnote vorschlägt, muss ich nachvollziehen können, warum das so ist. Zudem ist die Frage der Verantwortlichkeit wichtig. Wenn ich eine automatisierte Note oder eine Krediteinstufung basierend auf meiner Adresse erhalte, finde ich das ethische Prinzip wichtig, dass ein Mensch so eine Entscheidung revidieren kann.

Gibt es derzeit schon Regulierungen, die für KI gelten?

Es gibt Regulierungen, denen sich KI unterwerfen müssen. Wir haben die allgemeinen Datenschutzbestimmungen, die sagen, welche Daten wo erhoben werden und wem sie gehören. KI-Systeme arbeiten mit gigantischen Datenmengen. Das heißt, sie müssen diesen Bestimmungen gehorchen und dementsprechend so gestaltet sein, dass man sagen kann, welche Daten das System über mich hat und im Zweifelsfall löschen kann. Eine große Schwierigkeit ist, dass viele der Systeme nicht aus Deutschland kommen, wo relativ strenge Datenschutzverordnungen gelten, sondern aus Ländern, wo diese viel lascher sind. Mit der Zustimmung der Nutzungsbedingungen akzeptiere ich ein Stück weit auch deren Hoheit über das, was sie mit den Daten machen.

Meines Erachtens gibt es bisher noch keine strikteren Regulierungen dazu, wie speziell eine KI gestaltet sein muss, damit sie ethischen Prinzipien und dem Datenschutz entspricht oder auch den Umgang mit Menschen sicher macht.

Befürchten Sie, dass Künstliche Intelligenz ohne Regulierungen oder Gesetze missbraucht werden könnten?

Im Prinzip passiert das bereits. Ein Stichwort sind sogenannte Deepfakes. Das sind mit KI-Methoden manipulierte Bilder, Videos und Audiodateien. Es wurden beispielsweise Politikerreden verfälscht, sodass Aussagen ins Gegenteil verkehrt wurden. Es gibt auch den Fake-News-Bereich, um politische Meinung zu manipulieren. Die Gefahr ist, dass das zu spät erkannt wird. Hier geht es direkt um Kriminalität. Ein weiterer Bereich ist die schleichende Manipulation durch Algorithmen, die in Social-Media-Plattformen verwendet werden. Ich werde von diesen Plattformen permanent in meinem Verhalten beobachtet und durch das, was ich selber poste oder mir anschaue, werde ich mit Informationen versorgt, die zu meinem Profil passen. Ich werde vermehrt in meiner Gedankenwelt verstärkt. Das führt beispielsweise zum Phänomen der Verschwörungstheoretiker, die in ihrer Welt leben, in der sie nur noch Kontakt mit Menschen haben, die den gleichen Verschwörungstheorien anhängen. Häufig wird der Begriff Bubble oder Blase verwendet. Das wird durch die KI-Algorithmen verstärkt.

Welche Konsequenzen könnte es haben, falls es ein Gesetz geben sollte?

Eine gesetzliche Regelung kann positive und negative Effekte haben. Ein positiver Effekt wäre, dass KI-Systeme die ethischen Prinzipien einhalten und den Missbrauch minimieren. Wenn das geregelt ist, kann es einen Schub für KI-Lösungen geben, die tatsächlich hilfreich sind und die den Umgang zwischen Mensch und KI verbessern. Man muss allerdings aufpassen, dass das nicht nur für Anbieter aus Deutschland oder Europa passiert, sondern die Dinge auch für Anbieter gelten, die woanders sitzen, aber ihre Leistungen bei uns anbieten. Es darf keine Ungleichheit entstehen, bei der es für Wissenschaftler*innen und Entwickler*innen in Deutschland oder ganz Europa schwieriger wird, KI-Lösungen zu entwickeln, die konkurrenzfähig sind. Wenn Regelungen zu restriktiv sind, können sie Innovationen verhindern und dazu führen, dass letztlich eine Art Flucht in andere Länder geschieht, die laschere Regeln haben.

Juni 2021

M
M