10. Kölner Mediensymposium

Prof. Dr. Rolf Schwartmann  (Bild: Thilo Schmülgen/TH Köln)

Algorithmen und Künstliche Intelligenz verändern alle Lebensbereiche. Prof. Dr. Rolf Schwartmann, Mitorganisator des 10. Kölner Mediensymposiums, erläutert im Interview, welche Herausforderungen für die Gesellschaft daraus entstehen und wie ihnen begegnet werden kann.

Auf dem gemeinsam mit der Universität zu Köln und der Universität Freiburg organisierten 10. Kölner Mediensymposium beleuchten Vertreterinnen und Vertreter aus Wissenschaft und Praxis diese Herausforderungen und diskutieren mit den Teilnehmerinnen und Teilnehmern über Lösungsansätze für eine nachhaltige Gestaltung von Vielfaltssicherung und Demokratie.

Prof. Schwartmann ist Leiter der Kölner Forschungsstelle für Medienrecht der TH Köln und Mitglied der Datenethikkommission der Bundesregierung.

Prof. Dr. Schwartmann, viele Unternehmen selektieren Medieninhalte, Newsfeeds und Suchmaschinenergebnisse für ihre Zwecke und schneiden Inhalte individuell auf die Nutzerinnen und Nutzer zu. Wann geraten Unternehmen in einen rechtlichen und ethischen Konflikt und wann muss der Einzelne geschützt werden?
Facebook und Google zeigen Nutzerinnen und Nutzern das an, was diese interessiert. Wer sich immer nur für Schminktipps interessiert, der sieht keine Posts zum 1. FC Köln. Das Schmoren im Saft der eigenen Filterblase ist erwünscht und nicht zu beanstanden, solange es um Konsumgüter geht. Jeder hat ein Recht auf seine Bubble, die basierend auf persönlichen Interessen getrieben durch Werbeinteressen gefüllt wird. Werbung ist hier passgenau möglich. Denn wer sich erkennbar im Netz für Fußball interessiert, der ist ein guter Werbekunde für Chips und Bier. Werbung für Kosmetika ginge bei ihm vermutlich ins Leere. Man kennt die Interessen der Kunden genau und kann Werbung zielgerichtet adressieren. Solange es um Konsum geht, ist dieses Geschäfts- und Kommunikationsmodell weder ethisch noch rechtlich zu beanstanden. Weil Facebook und Google aber nicht nur Werbung für Konsumgüter machen, sondern auch im Wahlkampf eine Rolle spielen, besteht die Gefahr, dass hier mit medienrechtlich unzulässigen Mitteln eingegriffen wird. In Massenmedien muss Wahlkampf neutral, ausgewogen und tendenzfrei sein. Derzeit gibt Facebook sich die Regeln für den Wahlkampf und die Zulässigkeit von Werbung selbst. Das muss sich ändern!

Wo gibt es noch Optimierungsbedarf, was die Pflichten von Anbietern digitaler Informationen betrifft?
Weil Google und Facebook die Gatekeeper über die persönlichen Interessen im Netz sind, sind sie gefährlich. Sie müssen dann, wenn sie meinungsrelevante Inhalte verbreiten so effektiv reguliert werden, wie andere Medienanbieter mit besonderer Meinungsrelevanz. Es kann nicht sein, dass die Vielfaltsvorgaben, die für ARD, ZDF, RTL, Pro7 /Sat 1 und Radio Köln gelten, nicht auch für die meinungsmächtigen Dienste wie Facebook und Google gelten. Hier muss etwas geschehen. Das fordert schon das Verfassungsrecht, das eine Medienordnung vorschreibt, in der sich der Bürger seine politische Meinung frei von privaten Interessen bilden kann. Dass hier auch Eigeninteressen der Plattformen eine Rolle spielen können, zeigt die Debatte um Artikel 13/17 der Urheberrechtsrichtlinie. Hier geht es darum, dass YouTube, also Google, für Videos verantwortlich ist, die Nutzer ins Netz stellen. Bis zum Inkrafttreten des neuen Rechts, haften die Hochladenden.
Da ist das Interesse von Google das neue Recht zu bekämpfen offenkundig. Außenstehende wissen nicht, ob das geschieht. So etwas muss unterbunden werden.

Der Sicherung des Wohlstandes dient auch die technische Weiterentwicklung. Gibt es Beispiele für eine positive Bedeutung von Algorithmen und Künstliche Intelligenz?
Absolut. Man kann Systeme darauf programmieren, Krankheiten zu „erkennen“. Man füttert sie etwa mit einer Vielzahl an Bildern von gutartigen und bösartigen Muttermalen und programmiert ihnen auch Unterscheidungskriterien für gutartig  oder bösartig ein. Die Maschine kann dann Muster präziser erkennen als ein Ärzteteam. 

Der Gebrauch von Nutzerinnen- und Nutzerdaten kann mit Manipulation und Missbrauch von Informationen einhergehen. Wie lassen sich Vielfaltssicherung und Demokratie in Zeiten eines umfassenden Einsatzes von Algorithmen und Künstlicher Intelligenz aufrechterhalten?
Der Staat muss sich intelligente Möglichkeiten überlegen, wie er Systeme kontrolliert. Zunächst ist nicht jede maschinenbasierte Entscheidung gleich kritisch. Es ist ein Unterschied, ob eine auf einen Algorithmus gestützte Entscheidung Werbung nicht anzeigt, einem Kind einen Kindergartenplatz verwehrt oder einem Organempfänger ein Spenderorgan. Hier müssen Wege für eine passgenaue Regulierung gefunden werden. Daran arbeiten wir in der Datenethikkommission und werden der Bundesregierung im Oktober Empfehlungen abgeben.

Welche Erkenntnisse versprechen Sie sich vom 10. Kölner Mediensymposium für die Wissenschaftlerinnen und Wissenschaftler der TH Köln sowie für alle Interessierten?
Ich würde gerne für die beschriebenen Probleme sensibilisieren und erste Lösungsideen auch mit dem Publikum diskutieren. Wir erhoffen uns Feedback und Impulse für unsere Forschung. Mir geht es darum, den Fokus der Kölner Forschungsstelle für Medienrecht auf die Schnittstelle zwischen Ethik und Recht zu fokussieren. Ich glaube, dass wir auch eine gute Plattform sein können, um die vielen Anwendungsfelder im Haus offenzulegen und zu vernetzen. Als Technische Hochschule sind wir nicht nur einer technisch hochwertigen und innovativen Forschung verpflichtet, sondern auch einer ethisch und rechtlich nachhaltigen Wissenschaft. Dafür würde ich gerne auf der Veranstaltung werben und die Forschungsstelle in den Dienst dieser aus meiner Sicht zentralen Zukunftsaufgabe der TH Köln stellen.

22.5.2019

Mehr zum Thema

M
M