Digitale Mobilisierung - drei Disziplinen, drei Perspektiven

„Postfaktisch” ist von der Gesellschaft für deutsche Sprache zum Wort des Jahres 2016 gewählt worden. Brexit, Trump, Pegida, Le Pen: Vor allem die in den Sozialen Medien betriebene Einflussnahme auf die öffentliche Meinung nennt die Jury in ihrer Begründung. Welche Herausforderungen bedeuten digitale Filterblasen, Fake News und Social Bots aus Sicht unserer Professorinnen und Professoren?

Prof. Dr. Christian Kohls - Fakultät für Informatik und Ingenieurwissenschaften


Um ihren Marktwert zu erhalten, werden die Betreiber ein eigenes Interesse entwickeln, sichtbar zu machen, ob Accounts echt oder digital generiert sind.

Prof. Dr. Christian Kohls Dr. Christian Kohls ist Professor für Informatik und Soziotechnische Systeme und Mitglied des Forschungsschwerpunkts „Digitale Technologien und Soziale Dienste”. (Bild: Christian Kohls)



Herr Kohls, mit computergenerierten Akteuren, den Social Bots, wurden reale Social Media-Nutzerinnen und -Nutzer im US-Wahlkampf politisch beeinflusst. Auf welche computergenerierten Tricks müssen wir uns in naher Zukunft noch einstellen?

Christian Kohls:
Man muss natürlich unterscheiden, wie Bots agieren. Es gibt weniger intelligente, die einfach nur Nachrichten streuen. Und es gibt Bots, die eine Konversation führen können. Zukünftig werden Bots noch intelligenter und schwieriger zu identifizieren sein. Dann können sie ein relativ breites Themenspektrum abdecken, harmlose Konversation betreiben und zu menschlichen Nutzern ein Vertrauensverhältnis aufbauen, so dass man gar nicht wahrnimmt, dass eine politische Motivation dahinter steckt – die wird eher beiläufig eingestreut. Momentan sind die Bots relativ generisch, das heißt, jeder User wird gleich behandelt. Aber wir müssen uns darauf einstellen, dass Bots sehr viel stärker auf die Zielgruppen und Regionen eingestellt werden. Wenn ein Bot erkennt, wie ein Benutzer tickt, mit dem er in den Dialog getreten ist, kann er gezieltere Aussagen treffen.



Es liegt also wieder einmal an jedem Einzelnen, wie viele Informationen man über sich im Netz hinterlässt.

Christian Kohls:
Und wie schnell Menschen mit unbekannten Personen in Kontakt treten. Studien zeigen, dass – im Gegensatz zur wirklichen Welt – in der virtuellen Welt Kontaktanfragen viel schneller und öfter akzeptiert werden. Doch mittlerweile hat man keine Garantie mehr, dass es sich bei dem fremden Account um eine reale Person handelt. Man könnte dieses Problem aber technisch lösen, indem die Plattformanbieter einen Reputationsindikator entwickeln. Der errechnet die Wahrscheinlichkeit, ob hinter der Kontaktanfrage eine echte Person steckt und ob sie vertrauenswürdig ist.



Eine neue Debatte fordert ja von Plattformen wie Facebook, Google und Twitter mehr gesellschaftliche Verantwortung.

Christian Kohls:
Von jedem Autohersteller verlangt man, dass er sichere Autos baut. Man kann also auch von den Netzwerkbetreibern verlangen, dass auf ihren Plattformen gewisse Regeln eingehalten werden. Ich glaube aber auch, dass die Betreiber selbst ein wirtschaftliches Interesse daran haben. In Zukunft könnten sich neue Communities und Plattformbetreiber von den etablierten abgrenzen. Entweder in dem sie nachweislich botfrei sind oder diese kennzeichnen. Nehmen wir zum Beispiel Twitter: Die Plattform ist ein relativ simpler technischer Dienst, den jeder große Anbieter leicht in ein paar Monaten aufbauen könnte. Der Wert von Twitter liegt aber in seinen Nutzern. In dem Moment, in dem man sich nicht mehr sicher sein kann, ob Social Bots twittern, verliert der Marktwert dieser Plattform. Deshalb werden die Betreiber bald ein eigenes Interesse entwickeln, sichtbar zu machen, ob Accounts echt oder digital generiert sind.



Von finanziellen Gründen abgesehen, warum entwickeln Informatiker so brisante Anwendungen: Nur um zu beweisen, dass es funktioniert?

Christian Kohls:
Die Gründe sind vielfältig. Natürlich kann man damit viel Geld verdienen. Außerdem haben wir in der Informatik nicht so verbindliche Ethikgrundsätze wie beispielsweise in der Medizin. Es ist wichtig, dafür zu sensibilisieren, denn wir sehen ja, dass einige Plattformen bestehende Gesetze nicht beachten. Im Masterstudium behandele ich auch ethische Fragestellungen und Perspektiven anhand von Fallbeispielen. Und natürlich möchte man ausprobieren und verstehen, wie künstliche Intelligenz funktionieren kann – schließlich kann man sie für hilfreiche oder kommerzielle Verwendungszwecke einsetzen, nicht nur zur politischen Einflussnahme. Bei der Weiterentwicklung digitaler Technologien geht es auch darum, Systeme für den Benutzer angenehmer zu gestalten. Und wenn man mit einem Bot einen Dialog führen kann über die Sehenswürdigkeiten eines Ortes, steckt dahinter das gleiche Prinzip der Benutzerzentrierung wie hinter Siri oder Google Assistant.



Gibt es Möglichkeiten, Social Bots mit digitalen Mitteln zu enttarnen?

Christian Kohls:
Für Privatpersonen meist nicht, aber es gibt tatsächlich verschiedene Strategien für die Betreiber oder für externe Organisationen. Man kann zum Beispiel beobachten wie ein einzelner Account agiert: Postet er 24 Stunden am Tag in großer Menge und noch dazu nur zu einem Thema? Dann steckt höchstwahrscheinlich ein Bot dahinter. Allerdings sind die Bots mittlerweile nicht mehr so naiv programmiert. Sie legen bewusst Ruhephasen ein, posten auch zu harmlosen Themen. Trotzdem kann man sie über eine Inhaltsanalyse enttarnen. Wenn sich zum Beispiel Aussagen häufen, die grammatikalisch verdächtig sind, oder sinnfreie Sätze gepostet werden. Es gibt auch die Enttarnungsstrategie sogenannte Honeypots auszusetzen: Das sind Posts mit Nachrichten, auf die kein realer Mensch reagieren würde – zum Beispiel sinnfreie Sätze. Werden auf diese Post viele Likes gesetzt, ist die Wahrscheinlichkeit von Bots, die dahinter stecken, sehr hoch. Außerdem sind in allen sozialen Netzwerken die Accounts miteinander verknüpft. Man kann sich anschauen, ob die Follower oder Freunde eine relativ homogene Gruppe sind oder wie viele Kontakte zu verifizierten Personen bestehen.



Abgesehen von Social Bots, welche Mittel könnten Plattformbetreiber noch einsetzen, zum Beispiel gegen populistische Fake News?

Christian Kohls:
Suchmaschinen wie Google können im Prinzip einen Vertrauensindikator für Links berechnen und so prüfen, ob im Netz andere Aussagen gleichen Inhalts existieren. Man könnte auch einen Reputationsindikator für eine Person berechnen. Und mit einer Sentimentanalyse kann man untersuchen, ob Posts mehr positive oder mehr negative Adjektive verwenden und worauf diese sich beziehen. Das ist allerdings nicht trivial, da man verneinende Wörter mitberücksichtigen muss. Aber die Trefferquote ist bisher nicht schlecht und lässt sich in Zukunft auch noch erhöhen. So könnte man zum Beispiel Reizthemen detektieren. Mit solchen Abfragen könnten Plattformbetreiber Aussagen prüfen, bevor andere User die Möglichkeit haben, diese Posts zu liken. Sie könnten den Account auf seine diffamierende Äußerung hinweisen und dass diese gegen die allgemeinen Geschäftsbedingungen verstößt. Das setzt aber auch eine Interessensverlagerung seitens der Betreiber voraus.

Funktionieren soziale Netzwerke überhaupt ohne Filterblase?

Christian Kohls:
Prinzipiell sind Filter ja nichts Schlechtes. Ein anderes Wort dafür sind Cluster, die man bildet, sei es zu Personen oder Themen, die zusammengehören. Im realen Leben gibt es ja auch verschiedene Milieus und Peergroups. In der realen Welt hat man aber schwache Links zwischen den einzelnen Clustern, also Crossover-Verbindungen, bei denen man sich mal in der einen, mal in der anderen Gruppe bewegt und dadurch eine heterogene Meinungsbildung hat. Gefährlich sind Cluster erst dann, wenn man sich darin isoliert bewegt. Man kann diese Bewegungen identifizieren, berechnen und Maßnahmen dagegen ergreifen. Amazon zum Beispiel empfi ehlt einem gerne ähnliche Produkte zu den gerade eingekauften. Das ist auch nichts Schlechtes, solange man sich nicht auf die Ähnlichkeiten beschränkt. Amazon könnte auch sagen: Jetzt hast Du 20 Krimis bestellt, ich empfehle Dir deshalb Bücher aus drei, vier anderen Genres, die auch interessant sind – wie man es aus einer Buchhandlung kennt.

Könnte man Menschen so aus ihrer Blase ziehen?

Christian Kohls:
Wenn man sie proaktiv triggert, ja. Zeitungen veröffentlichen zu aktuellen Themen Pro- und Contrameinungen. Über Leserbriefe wird versucht, unterschiedliche Meinungen abzubilden. Das kann man als Betreiber auch steuern und einem Benutzer andere Quellen anbieten, um sein homogenes Nachrichtenportal zu erweitern.



Werden sich Soziale Netze in diese Richtung weiterentwickeln oder verliert sich die Gesellschaft in der digitalen Welt?

Christian Kohls:
Die Gefahr ist sicherlich da, aber ich habe die Hoffnung, dass wir in Zukunft Dienste haben, die genau dieses Problem aufgreifen. Es hat einen Wert, in bestimmten Kontexten anonym zu sein, dennoch haben wir immer wieder das Bedürfnis, uns in Gesellschaften zu bewegen, in denen wir einander vertrauen können, auch wenn wir uns nicht persönlich kennen. Ich hoffe auch, dass durch zu viele Social Bots, die nicht im Sinne der Nutzer agieren, das Geschäftsmodell aufgebrochen wird und neue Anbieter sensibler damit umgehen. Man denkt immer, Facebook wird bis in alle Ewigkeit bestehen bleiben. Diese riesige Community ist in so einer kurzen Zeit entstanden, dass ich keinen Widerspruch darin sehe, dass in ähnlich kurzer Zeit andere, vergleichbar große Communities aufgebaut werden können.

Prof. Dr. Rolf Schwartmann - Fakultät für Wirtschafts- und Rechtswissenschaften


Der Nutzer darf nicht mehr darauf vertrauen, dass die Informationen, die ihm ein Medium gibt, auch geprüfgt sind. Dafür ist die Medienlandschaft zu diffus geworden.

Prof. Dr. Rolf Schwartmann Dr. Rolf Schwartmann ist Professor für Bürgerliches Recht und Wirtschaftsrecht, insbesondere öffentliches und internationales Wirtschaftsrecht und Leiter der Kölner Forschungsstelle für Medienrecht. (Bild: Thilo Schmülgen/TH Köln)



Herr Schwartmann, erwarten Sie ähnliche Szenarien im Vorfeld der Bundestageswahlen wie in den USA?

Rolf Schwartmann:
Ja, ich glaube, darauf müssen wir uns gefasst machen. Politik und Gesellschaft sind gut beraten, dieses Risiko zu sehen und eben auch sehr genau darauf zu achten – seien es Hackerangriff e oder gesteuerte Falschmeldungen.



Den Einsatz von Falschmeldungen für die politische Propaganda hat es schon immer gegeben, man denke nur an die Weimarer Republik oder den Kalten Krieg. Warum haben moderne Fake News im Internet eine neue Qualität?

Rolf Schwartmann:
Wenn ich eine falsche Information in einem Umfeld verbreite, in dem sie mehr oder weniger keine Reichweite hat, ist das faktisch eher unproblematisch. Aber mit Social Media verfügen wir über Mechanismen weltweiter Reichweitenerzielung, die es bisher noch nicht gab. Und das ist ein enormer Unterschied. Ich kann heute eine Falschmeldung über drei Server posten und davon ausgehen, dass die Algorithmen diese Meldungen als gesichert einstufen und weiter verbreiten werden. Das System prüft aber nicht den Wahrheitsgehalt. Das ist ein neues Phänomen.



Im US-Wahlkampf wurden schätzungsweise 400.000 Social Bots eingesetzt, um für Hillary Clinton und Donald Trump zu werben, teils hochemotional und mit falschen Fakten. Warum ist es juristisch legal, uneingeschränkt computergenerierte Nachrichten einzusetzen, um Stimmung für oder gegen eine Person oder ein Thema zu machen?

Rolf Schwartmann:
Wenn man über einen Computer eine Information verbreitet, ist das für sich gesehen nichts Problematisches. Jeder politische Kandidat kann für sich Werbung machen, sei es durch menschliche Unterstützer oder durch computergenerierte. Wichtig ist, dass das Gesagte wahr und redlich ist. Wenn über Social Bots falsche Informationen als journalistisch geprüfte Inhalte verkauft werden, verstößt das gegen die medienrechtliche Sorgfaltspflicht – ist aber dennoch schwer zu greifen. Indem man für fiktive Äußerungen computergenerierte Reichweite erzeugt, nimmt man auf unzulässige Art und Weise Einfluss auf die öffentliche Meinung. Auf der anderen Seite gibt es aber nun einmal die Meinungsfreiheit: Jeder darf sich dazu äußern, ob er den Kandidaten A oder B gut oder schlecht findet. Letztlich muss der Empfänger bewerten, ob er diese Nachricht glaubt oder eben nicht.



Eine neue Debatte will Informationsplattformen wie Facebook, Google und Twitter jetzt zu mehr gesellschaftlicher Verantwortung verpflichten. Kann man Facebook als Medienunternehmen einstufen, so dass es für alle Inhalte verantwortlich gemacht werden kann?

Rolf Schwartmann:
Die Idee, Plattformen in die Pflicht zu nehmen, die dort stattfindende Kommunikation zu reglementieren, liegt nah und ist richtig, auch wenn sie rechtlich nicht unproblematisch ist. Das Recht begreift diese Plattformbetreiber als Störer, weil sie die Möglichkeit für eine Rechtsverletzung schaffen, selber aber keine Rechtsverletzter sind. Die Plattformbetreiber müssen ihrer Einflussmöglichkeit nachkommen, wenn rechtswidrige Handlungen auf ihren Seiten begangen werden – vorausgesetzt, sie wissen davon. Auf Facebook verbreiten die Nutzer sehr intensiv ihre Meinung. Die Frage ist hier, inwieweit rechtsverletzende Äußerungen der Nutzer, der Plattform zuzurechnen sind. Facebook kann Einfluss nehmen – zugleich muss man sich aber auch darüber im Klaren sein, dass das Internet genauso ein Medium ist, in dem Menschen scharfe Meinungen verbreiten können wie auf der Straße auch. Sobald es etwa beleidigend oder verletzend wird, ist es hier wie da verboten. Es wird allerdings schlimmer, wenn Menschen bei Facebook hetzen oder beleidigen, weil die Aussage nicht flüchtig ist sondern potentiell eine weltweite Reichweite hat und in der Regel auch im Netz verfügbar bleibt. Hier ist die Hemmschwelle auch deutlich niedriger, diskreditierende Äußerungen zu posten.



Weil man anonym agieren kann.

Rolf Schwartmann:
Und weil man den Zuspruch von Vielen hat. Es ist nicht verboten zu hassen und zu lieben. Es gibt nur Grenzen. Und diese Grenzen  auszutarieren ist etwas, mit dem sich die Rechtsprechung in mühevoller Kleinarbeit auseinandersetzt. Jetzt muss aber jeder, der eine Plattform mit der Möglichkeit zur Meinungsäußerungen betreibt, ebenfalls diese Grenzen austarieren. In vielen Fällen überfordert das das Rechtsempfinden der Leute, der Betreiber und auch der Medien.



Über Algorithmen kommen Falschmeldungen mit mehr als drei Nachrichtenquellen in die Trending Topics der Plattformen. Eine Idee, um das zu verhindern, ist, dass etablierte Nachrichtenquellen Vertrauenspunkte bekommen. Was halten Sie von dieser Form der Einflussnahme?

Rolf Schwartmann:
Ich halte gar nichts von Vertrauenspunkten, Bewertungen und anderen Formen der Einflussnahme. Vertrauen ist eine sehr individuelle Angelegenheit. Ein völlig vertrauensunwürdiger Mensch kann mir etwas erzählen, was ich ihm sofort glaube, weil die Umstände darauf hindeuten, dass es wahr ist. So etwas ist nicht digital programmierbar. Darauf eine mediale Bewertung fußen zu lassen, ist aus meiner Sicht fatal. Alle können als Blogger vielbeachtete Medieninhalte erzeugen, nicht nur Presse- und Rundfunkanbieter mit publizistischer Ausbildung, Erfahrung und Ethos. Wir müssen uns daran gewöhnen, dass das, was für Journalisten und Juristen zum Handwerkszeug gehört, heute für jeden gilt, der Inhalte in Medien konsumiert und verbreitet: Nichts zu glauben, was man nicht geprüft hat. Die Welt wird überschwemmt mit Informationen, die oft falsch sind, aber man glaubt sie häufig trotzdem – weil sie entweder ins persönliche Weltbild passen oder weil echte und erfundene Nachrichten nicht leicht voneinander zu unterscheiden sind. Die fehlende unmittelbare Überprüfungsmöglichkeit und die fehlende Kompetenz des Menschen bei der Wahrnehmung dieser Informationen ist ein echtes gesellschaftliches Problem – und wenn es um politische Einflussnahme im Vorfeld von Wahlen geht, wird die Axt an die Grundlagen der Demokratie gelegt, weil die Wahlentscheidung beeinflusst werden kann.

Dann bleibt es den etablierten Medien und den sozialen Netzwerken überlassen, Fake News zu entlarven?

Rolf Schwartmann:
Jeder muss bei sich ansetzen. Die Medien müssen ganz gewissenhaft ihre Informationsquellen überprüfen. Neben den Medien sehe ich daher auch die Mediennutzerinnen und -nutzer in der Pflicht. Sie müssen lernen, wahr von unwahr zu unterscheiden. Bisher gab es immer den Filter der Medien, die Informationen geprüft haben, bevor sie diese an die Menschen weitergegeben und zur Meinungsbildung beigetragen haben. Das war gut kalkulierbar, da jedes etablierte Medium auch einen Ruf zu verlieren hatte. Betreiben Sie aber heute eine Internetseite, und es ist Ihnen egal, ob sie morgen noch am Markt sind oder dann schon unter einem anderen Namen publizieren, können Sie ohne große Konsequenzen Nebelkerzen zünden. Sie haben ja nichts zu verlieren und übernehmen keine Verantwortung. Der Nutzer darf deshalb nicht mehr darauf vertrauen, dass die Informationen, die ihm ein Medium gibt, auch geprüft sind. Dafür ist die Medienlandschaft zu diffus geworden. Jeder Nutzer muss sich selbst die Frage stellen: Glaube ich das? Und er muss etwas für ihn Selbstverständliches aber bisher vielleicht Untypisches tun: Mündigkeit ernst nehmen. Das ist unerlässlich, denn unsere Verantwortung ist mehr gefragt denn je, weil jeder viel Schaden anrichten kann.

Prof. Dr. Isabel Zorn - Fakultät für Angewandte Sozialwissenschaften

Das Problem an den Sozialen Netzwerken ist, dass ich gar nicht weiß, dass ich mich in einer Filterblase befinde.

Isabel Zorn Dr. Isabel Zorn ist Professorin für Medienpädagogik und Digitale Medien in der Sozialen Arbeit und Mitglied des Forschungsschwerpunkts „Digitale Technologien und Soziale Dienste”. (Bild: Costa Belibasakis/FH Köln)



Frau Zorn, eine Umfrage der Stanford University unter 7.800 Schülerinnen und Schülern hat ergeben, dass 82 Prozent Fake News nicht von echten Nachrichten unterscheiden können. Ist das alarmierend hinsichtlich der Medienkompetenz der Jugendlichen?

Isabel Zorn
: Das ist auf jeden Fall alarmierend. Aber es ist ein Problem, das nicht nur unter Schülerinnen und Schülern besteht. Verschiedene Studien haben ergeben, dass sich insbesondere Fake News gut verbreiten, besser als die Gegendarstellungen übrigens. Der Grund ist, dass Menschen gerne das rezipieren, was ohnehin schon ihrer Meinung entspricht – auch wenn es falsch ist. Gleichwohl wissen wir, dass wir Erwachsene und Jugendliche gleichermaßen im Umgang mit Medien ausbilden müssen. Die Initiative D21 hat in ihrer neuesten Studie zum Onlinenutzungsverhalten in Deutschland herausgefunden, dass in allen Altersklassen große Schwierigkeiten bei der Recherchekompetenz bestehen. Zum Beispiel beachten nur rund 15 Prozent der Bevölkerung Suchmaschinenergebnisse jenseits der ersten Ergebnisseite und nur wenige wissen, dass man die Einstellungen so wählen kann, dass die erste Seite 50 Ergebniseinträge anzeigt statt zehn. Selbst pädagogische Fachkräfte haben Schwierigkeiten bei der Medienkompetenz, weil sie zu wenig darin ausgebildet werden.



Damit erübrigt sich die Frage, wer für die Kompetenzvermittlung zuständig ist. Wenn es die Eltern selbst nicht können, bleibt es Aufgabe der Schulen?

Isabel Zorn:
Genau. Die D21-Studie und die ICILS 2013-Studie zeigen unter anderem, dass insbesondere die Schülerinnen und Schüler, die aus bildungsschwachen Familien kommen, auch in ihrer Medien- und Informationskompetenz schwächer sind. Und wenn wir davon ausgehen, dass Strategien zur Recherche und zum Lebenslangen Lernen wichtig sind für das berufliche Fortkommen, für Gleichberechtigung und Teilhabe an der Gesellschaft, dann wächst hier die soziale Ungleichheit weiter an. Und wenn in dieser Situation Bildungseinrichtungen ein Handy- und Computerverbot aussprechen, wie es viele Schulen gerade tun: Wo sollen junge Menschen diese Fähigkeiten erlernen? Dann bleibt ihnen nur die Straße – also das Lernen von Peers. Das ist eine Katastrophe, denn diese Situation verschärft die Ungleichheit. Gleichzeitig sagt ein Vorstand des Deutschen Lehrerverbandes öff entlich, dass Schülerinnen und Schüler sich nicht daran gewöhnen sollten, Informationen auf Knopfdruck zu bekommen. Ich frage mich: woher denn sonst? Wir bekommen im Arbeitsleben alle unsere Informationen auf Knopfdruck. Deshalb müssen wir durch Bildungseinrichtungen lernen, diese Informationen zu beurteilen.



Warum tun sich Schulen mit Smartphones so schwer?

Isabel Zorn:
Ich denke, es mangelt vor allem an Strukturen, wie an Schulen Lehrerinnen und Lehrer unterstützt werden können im bildungsorientierten Umgang mit digitaler Technologie im Unterricht. Eigentlich bräuchte jede Schule eine Medienpädagogin oder einen -pädagogen, um die Lehrerinnen und Lehrer zu beraten, wie sie digitale Medien sinnvoll in ihrem Unterricht einsetzen können. Denn die Medienpädagogik vermittelt umfassende Kenntnisse über Medien und Medienstrukturen, Inhalte, Informatik, Urheberrechte und Datenschutz. Diese Kompetenzen darf man von Lehrerinnen und Lehrern nicht auch noch on top erwarten – das ist bei den momentanen Ausbildungsstrukturen vermessen.



Die Sorge, die man sich jetzt im Vorfeld der Bundestagswahl über die manipulierbaren Wählerinnen und Wähler macht, ist also hausgemacht. Immerhin bezeichnete Angela Merkel vor drei Jahren das Internet noch als „Neuland“.

Isabel Zorn:
In fast allen deutschen Hochschulen ist Medienpädagogik und -didaktik im Lehramtsstudium nur Teil des Wahlpflichtangebots. Und auch in der Sozialen Arbeit ist unsere Hochschule eine der wenigen, die die Bedeutung der digitalen Medien für die Profession erkannt hat. Sie sind der Schlüssel zu lebenslangem Lernen. Es kann keine Option sein, sich mit digitalen Technologien auszukennen oder nicht. Wir müssen uns alle damit auskennen.



Wie erreicht man Erwachsene bei der Vermittlung von Medienkompetenz?

Isabel Zorn: Im Grunde müssen auch die Firmen Verantwortung übernehmen, ihre Mitarbeiterinnen und Mitarbeiter in der Medienkompetenz auszubilden. Denn auch für Unternehmen ist es von Interesse, die Arbeitsprozesse ihrer Mitarbeiter im Umgang mit digitalen Technologien zu optimieren. Schwierig wird es für jene, die im Arbeitsprozess kaum digitale Technik benutzen oder nicht in Arbeitsverhältnissen sind. Hier wären Orte des informellen Lernens eine Möglichkeit.



Dass man sich mit tendenziell Gleichgesinnten umgibt, ist ein uralter sozialer Mechanismus: Filterblasen können als Schutzraum funktionieren. Warum werden digitale Filterblasen so kritisch bewertet?

Isabel Zorn:
Auch ohne Internet bewege ich mich in einem bestimmten Milieu, sei es in meiner Nachbarschaft, meinem Sportverein oder meinem Freundeskreis. Dabei bin ich mir jedoch bewusst, dass es auch andere Milieus gibt. Das ermöglicht mir zumindest zu reflektieren, wo ich mich bewege. Das Problem an den Sozialen Netzwerken ist aber, dass ich gar nicht weiß, dass ich mich in einer Filterblase befinde. Auch hierzu gibt es Studien die zeigen, dass selbst Hochgebildete von sich meinen, sie seien umfassend informiert. Wir glauben, wir informieren uns neutral – aber wissen wir das? Das Verhalten meiner Studierenden bestätigt übrigens die Studienergebnisse, nach denen immer mehr Menschen ihre Nachrichten über Social Media rezipieren. Das heißt, sie gehen nicht auf die Homepage eines Nachrichtenkanals, sondern erhalten über Freunde einzelne Meldungslinks. „Meine Freunde sind sehr reflektiert und ich kann darauf vertrauen, dass ich von ihnen gut informiert werde“, heißt es dann zum Beispiel von meinen Studierenden. Aber ihnen ist dabei nicht bewusst, dass sie in einer Filterblase sitzen. Nach einer Untersuchung des Pew Research Centers Journalism and Media konsumieren 62 Prozent aller US-amerikanischen Erwachsenen ihre Nachrichten über Social Media. Dabei nutzen rund dreiviertel von ihnen ausschließlich einen einzigen Social-Media-Kanal, um sich zu informieren. Weniger als 20 Prozent nutzen zwei Seiten, verschwindend wenige mehr als drei. Angesichts solcher Verhaltensmuster lassen sich leicht Wählerinnen und Wähler beeinflussen.



Früher hatte man eine Tageszeitung, über die man sich ausschließlich informiert hat. Das man sich auf einen Medienkanal beschränkt ist typisch für die menschliche Bequemlichkeit.

Isabel Zorn:
Schon, aber der Unterschied ist, dass es dem Leser früher klar war, dass er seine Nachrichten nur über einen Kanal bezieht, und dass es aber andere gibt. Außerdem gab es einen öffentlichen Diskurs darüber, wie beispielsweise die Bild-Zeitung über ein Thema berichtet und im Vergleich dazu die FAZ. Diesen Diskurs gibt es jetzt nicht mehr, weil man nicht weiß, welche Menschen welche Nachrichten beziehen – und welche Accounts Social Bots sind. Deshalb ist es wichtig den Menschen zu vermitteln, dass sie sich aus möglichst verschiedenen Perspektiven über ein Thema informieren sollen. Denn eigentlich wollen wir alle doch gut informiert werden. Aber dann müssen wir selbst auch etwas dafür tun. Außerdem sollten wir die Informationsanbieter in die Verantwortung nehmen, Transparenz über die Quellen und Distributionsmechanismen der Informationen herzustellen.

Interviews: Monika Probst

April 2017

M
M