Können wir unseren Augen noch trauen? Die Folgen von Deepfakes und der Umgang damit

In einem Video verkündet Wolodymyr Selenskyj, der ukrainische Präsident, dass die Ukraine ihre Waffen niederlegt. Auf einem Bild wird Donald Trump auf offener Straße von Polizisten verhaftet. Auf einem anderen Bild trägt der Papst eine stylische weiße Daunenjacke. Das Verrückte daran: Das alles hat nie stattgefunden.

Was so täuschend echt aussieht, sind Deepfakes, also Video-, Audio- und Bildmaterial, das mit Künstlicher Intelligenz hergestellt wurde. Nachdem Originalmaterial von bestimmten Menschen in die Software eingespeist wurde, kann die KI sie Sätze sagen lassen, die sie nie gesagt haben, oder sie in Situationen zeigen, in denen sie sich nie befanden.

Portraitfoto Prof. Dr. Lars Rinsdorf Prof. Dr. Lars Rinsdorf vom Institut für Informationswissenschaft der TH Köln (Bild: HdM Stuttgart)

Prof. Dr. Lars Rinsdorf vom Institut für Informationswissenschaft der TH Köln forscht im Bereich Desinformation. „Nutzende sind es gewohnt, dass das, was Videos und Fotos zeigen, echt ist. Sie haben häufig noch nicht präsent, dass sie manipuliert sein können“, so Prof. Dr. Rinsdorf. Allein von der Machart her könnten Normalbürger*innen Deepfakes nicht mehr erkennen.

Die Macht der gefälschten Bilder

In zahlreichen Artikeln und Podcasts wird davon gesprochen, wie gefährlich Deepfakes für die Demokratie sind. Denn was ist, wenn Menschen die Bilder von Trump für echt halten und denken, er wäre kürzlich auf offener Straße verhaftet worden? Werden Wahlentscheidungen anders getroffen – aufgrund von gefälschten Bildern?

Laut Prof. Dr. Rinsdorf ist die Gesellschaft gar nicht so machtlos gegenüber dem Phänomen, wie an mancher Stelle angenommen wird. „Deepfakes werden zunehmend bekannt“, so Prof. Dr. Rinsdorf. Ihm zufolge könnten Menschen deshalb aufmerksamer für Bildmanipulation werden und lernen, Deepfakes zu erkennen. „Man kann schauen, wo das Bildmaterial herkommt. Wer hat es publiziert? Gibt es das Bildmaterial auch in seriösen Quellen?“, erklärt Prof. Dr. Rinsdorf. Das reiche oft schon aus, um gefälschtes Audio-, Video- oder Bildmaterial zu entlarven.

Ihre Wirkung entfalten Deepfakes laut Prof. Dr. Rinsdorf hauptsächlich bei einer bestimmten Gruppe der Gesellschaft. „Das sind Menschen, die sich in extremen Stresssituationen befinden und in den Verschwörungsmythen oder in der populistischen Ideologie einfache Lösungen für eine komplexe Welt sehen“, erläutert er. In der empirischen Arbeit habe sich aber auch gezeigt: „Wenn Menschen mit dieser Einstellung Desinformation in ganz einfacher Textform präsentiert bekommen, reicht das schon völlig aus.“ Es komme also nicht darauf an, ob ein Text, ein Video oder ein Bild gefälscht wurde. „Die Gefahr geht letztlich von der Desinformation als solcher aus.“

Prof. Dr. Rolf Schwartmann Prof. Dr. Rolf Schwartmann (Bild: TH Köln)

Deepfakes nicht per se strafbar

Abseits von ihren Folgen für die Demokratie können Deepfakes ihre Wirkung im privaten Leben von Einzelpersonen entfalten. Ein Beispiel dafür ist der Enkeltrick. Diese Betrugsmasche funktioniert umso besser, wenn die Stimme, die bei den Großeltern anruft, als Deepfake erstellt wurde und die Stimme des echten Enkels täuschend echt nachahmt. Ein anderes Beispiel ist der Racheporno-Deepfake, bei dem das Gesicht einer Frau auf das einer Pornostellerin gesetzt wird und diese dann in dem Video scheinbar sexuelle Handlungen vollzieht. Es stellt sich die Frage: Wie sind Deepfakes rechtlich reguliert?

Prof. Dr. Rolf Schwartmann lehrt an der TH Köln und ist Leiter der Kölner Forschungsstelle für Medienrecht. Ihm zufolge ist das Erstellen von Deepfakes nicht per se strafbar. „Es kommt darauf an, was man damit macht“, so Prof. Dr. Schwartmann. Werde zum Beispiel ein Racheporno-Deepfake erstellt, sei das schon jetzt verboten. Das gleiche gilt für Betrugsmaschen wie dem Enkeltrick. „Man macht sich jedoch nicht strafbar, wenn man etwa ein Deepfake vom Papst erstellt, der eine schicke Jacke anzieht.“ In diesem Fall werde aber möglicherweise das Persönlichkeitsrecht verletzt, was Schadenersatzansprüche auslösen kann. Schlussfolgerung: Es gibt einige Gesetze, die bereits erlassen wurden, bevor ein Internet-Nutzer 2017 auch nur das Wort „Deepfake“ erfand – und die trotzdem gut auf eben diese anwendbar sind.

Dennoch gebe es bei der Regulierung von Deepfakes Grenzen für Gesetze und Gerichte. Zum einen tauche häufig das Problem auf, dass der/die Ersteller*in des Deepfakes nicht ausfündig gemacht werden könne. Auch Deepfakes in den Sozialen Medien lediglich löschen zu lassen, bereite noch Schwierigkeiten: „Plattformbetreiber wie Meta sind durch den Digital Services Act auf EU-Ebene dazu verpflichtet, innerhalb kürzester Zeit Fake News zu entfernen“, so Prof. Dr. Schwartmann. „Jedoch wird das das nicht Problem lösen, dass die Betreiber möglichweise selbst nicht wissen, was gefälscht ist und was nicht.“ Dafür müsse geschultes Personal vorhanden sein. Und selbst, wenn die Deepfakes dann entfernt würden, lasse sich der Schaden, der bis dahin bereits entstanden sei, häufig nicht rückgängig machen.

Oktober 2023

M
M