Abschlussbericht der Datenethikkommission

Prof. Dr. Rolf Schwartmann  (Bild: Thilo Schmülgen/TH Köln)

Die Bundesregierung hat im September 2018 eine Datenethikkommission eingesetzt, um Vorschläge für den künftigen Umgang mit Datenpolitik, Algorithmen, künstlicher Intelligenz und digitaler Innovationen zu erhalten. Die Kommission hat am 23. Oktober 2019 ihren Abschlussbericht vorgelegt. Zu den 16 Mitgliedern gehörte auch Prof. Dr. Rolf Schwartmann, Leiter der Kölner Forschungsstelle für Medienrecht

Welche Aufgaben hatte die Datenethikkommission?

Schwartmann: Die Kommission hat vom Bundesinnenministerium und vom Bundesjustizministerium einen umfangreichen Fragenkatalog erhalten. Im Wesentlichen ging es darum, wie in Staat und Gesellschaft mit dem Einsatz algorithmischer Systeme und Künstlicher Intelligenz umzugehen ist und darum, wie unsere Gesellschaft nach ethisch geleiteten Gesichtspunkten mit personenbezogenen Daten, Daten in der Wirtschaft und Forschungsdaten umgehen soll.
Ein ethisch vertretbarer Umgang mit Daten bedeutet, dass zum Beispiel die wirtschaftlichen Interessen in ein angemessenes Verhältnis zu den Persönlichkeitsrechten der Bürgerinnen und Bürger gebracht werden müssen. Dazu müssen Standards für eine datenschutzkonforme Nutzung von Daten entwickelt werden. Das empfiehlt die Datenethikkommission. In einer Forschungsgruppe des Digitalgipfels der Bundesregierung, die ich im Auftrag des Bundesinnenministeriums leite, haben wir einen Entwurf für einen solchen Standard entwickelt, den wir kürzlich auf dem Digitalgipfel vorgestellt haben.

Was ist ein Beispiel für die ethisch problematische Nutzung von Daten?

Schwartmann: Wir haben uns mit zwei großen Themenblöcken befasst. Zum einen mit Algorithmen und dem Einsatz von künstlicher Intelligenz – etwa bei der personalisierten Preisbildung. Wenn Sie im Internet von unterschiedlichen Geräten nach demselben Produkt suchen, bekommen Sie unter Umständen verschiedene Preise angezeigt. Denn der Algorithmus erkennt einzelne Nutzerinnen und Nutzer anhand ihres Verhaltens wieder. Wenn jemand krank ist und auf ein bestimmtes Medikament angewiesen ist, würde er einen höheren  Preis zahlen, als ein gesunder Mensch. Hier ist bei der Preisdifferenzierung eine ethische Grenze erreicht. Zum anderen geht es um die Verarbeitung von Daten. Da haben wir uns mit Grundsatzfragen und wichtigen Details befasst. Nehmen wir etwa Social Media Accounts. Die Datenschutz-Grundverordnung schützt nur die Daten von Lebenden. Aber was passiert mit dem Facebook-Profil eines Verstorbenen? Die dort hinterlegten Daten sind weiterhin geeignet, um Persönlichkeitsprofile von Nutzern zu erstellen, die mit dem Account verbunden sind. Das muss rechtlich geregelt werden.

Was sind die Ergebnisse Ihrer Arbeit?

Schwartmann: Wir haben uns seit September 2018 jeden Monat für mindestens zwei Tage getroffen und an den verschiedenen Themen intensiv gearbeitet. Daraus ist ein umfangreicher Abschlussbericht mit 75 Empfehlungen entstanden. Es ist nun an der Politik zu entscheiden, wie sie umgesetzt werden können.

Was empfehlen Sie der Politik?

Schwartmann: Ich empfehle eine risikoangemessene Regulierung von Medienintermediären mit Torwächterfunktion. Das sind Anbieter wie etwa Facebook oder Google, durch deren Tore und Schleusen – also Algorithmen – personalisiert Werbung und Meinungen im Netz verbreitet werden. Deren Geschäftsmodell ist insbesondere mit Blick auf die politische Meinungsbildung regulierungsbedürftig. Beispielsweise weiß Google, welche Artikel mit welcher politischen Grundaussage die Nutzerinnen und Nutzer besonders häufig lesen. Weil das System darauf programmiert ist, ähnliche Artikel bei weiteren Suchen zuerst anzuzeigen, kann die Wahrscheinlichkeit sinken, dass die Menschen Parteien oder Haltungen angezeigt bekommen, die nicht der eigenen entsprechen. Die Datenethikkommission empfiehlt, dass die Datengiganten neben dem personalisierten Feed ein zusätzliches Angebot anzeigen müssen, das die Suchergebnisse nach Regeln der pluralen Vielfalt und ohne persönliche Filterung anzeigt.

Braucht jeder Dienst, der Algorithmen nutzt, eine Regulierung?

Schwartmann: Nein. Wenn Sie einen Getränkeautomaten nutzen und der Algorithmus wirft ein falsches Getränk aus, dann ist das misslich, aber keine Gefahr für die Demokratie. Wenn aber ein Waffensystem selbst entscheiden soll, welche Personen es angreift, dann ist das rechtlich wohl nicht vertretbar. Um eine risikoangemessene Regulierung zu erleichtern, hat die Datenethikkommission eine sogenannte Kritikalitätspyramide entworfen, die in fünf Stufen zwischen Anwendungen mit keinem oder nur geringem und solchen mit unvertretbarem Schädigungspotenzial unterscheidet.

30. Oktober 2019

M
M