„Postfaktisch“ ist das Wort des Jahres 2016 – national und international. Es bedeutet „nach den Fakten“ und meint, dass Tatsachen entweder bestritten oder selektiv verwendet werden – also einen radikalen Umgang mit Fakten, wie Servan Grüninger und Michaela Egli in der Neuen Zürcher Zeitung kommentieren: „Postfaktisch sind immer die anderen.“ Und „postfaktisch“ heißt auch, dass individuelles Fühlen gegen allgemeine Fakten gestellt wird. Leben wir in postfaktischen Zeiten?
Zitate zum Begriff „postfaktisch“ – eine Sammlung bei BR.de
Fake News, Filter Bubbles und Social Bots sind in den Schlagzeilen, weil die Briten sich gegen die EU und die Amerikaner sich für Trump entschieden haben. Nun wird auch in Deutschland gewählt: Im Mai ist die NRW-Landtagswahl und im September ist die Bundestagswahl. „Die künftige Gestalt der Demokratie wird, siehe 2016, auch im Netz entschieden …“ schreibt Stefan Plöchinger, Chefredakteur von sueddeutsche.de, im „journalist“ (1/2017). Denn Fake News, Filter Bubbles und Social Bots sollen mächtig genug sein, um Wahlergebnisse zu beeinflussen. Ist die Demokratie in Gefahr, weil sich Menschen eine politische Meinung mit Suchmaschinen und in sozialen Netzwerken bilden?
Fake News, Bots und Sockenpuppen – eine Begriffsklärung bei netzpolitik.org (Stand: November 2016)
Google und Facebook werden generell viel genutzt und sind auch relevante Quellen für aktuelle Nachrichten. Deshalb gelten Suchmaschinen und soziale Netzwerke als sogenannte „Intermediäre“, dass heißt, sie sind Mittler zwischen Quellen und Publikum mit dem Potenzial für manipulierende und personalisierende Eingriffe. Eine Studie der Medienanstalten hat ermittelt (Stand: 2016), dass fast alle Onliner auch Intermediäre nutzen (95 Prozent), am häufigsten werden Suchmaschinen (40 Prozent) und soziale Netzwerke (30 Prozent) für informative Zwecke verwendet. Ebenso gelten Suchmaschinen und soziale Netzwerke als Orte im Internet, an denen sich Fake News verbreiten, Filter Bubbles bilden und Social Bots agieren. Wie riskant sind diese Phänomene für Wahlergebnisse?
FAKE NEWS – Fühlen oder Fakten
„You are fake news“, schimpfte Donald Trump bei einer Pressekonferenz nach den US-Wahlen und meinte einen Journalisten vom Nachrichtensender CNN. Der Begriff meint erfundene oder gefälschte Nachrichten, die nicht auf Fakten basieren. Meistens summieren Fake News verschiedene Arten von Nachrichten, die nicht korrekt sind und die es anhand ihres Charakters zu differenzieren gilt: als mis-informierend oder des-informierend. Mis-Informationen werden eher unabsichtlich veröffentlicht und schnell korrigiert. Hingegen werden Des-Informationen absichtlich erzeugt und veröffentlicht – eigentlich immer mit dem Ziel, sich viral im Internet zu verbreiten. Denn für diesen Zweck sind Fake News optimiert.
Eine Übersicht mit sieben Arten von Mis-Information und Des-Information hat Claire Wardle bei „First Draft News“ veröffentlicht.
Komplett erfundene Nachrichten sind nur ein geringer Teil der Fake News, am häufigsten finden sich hybride Formen, das heißt, Nachrichten mit einem wahren Kern, die übertreiben, verallgemeinern oder weglassen und so falsche Zusammenhänge schaffen. Besonders perfide sind Fake News, die vertrauenswürdige Medien als Quelle nennen und missbrauchen: So wurden der Süddeutschen Zeitung und dem People Magazin erfundene Zitate der Politiker Renate Künast und Donald Trump zugeschrieben, die sich nicht in deren Archiv finden.
Ein Sonderfall ist Satire, die Falschmeldungen als Mittel nutzt, um tatsächliche Ereignisse zu kommentieren – immer mit dem Risiko, dass solche „Nachrichten“ als wahr betrachtet werden, wie beispielsweise Reaktionen auf die satirische Online-Zeitung „Der Postillon“ zeigen.
Mittlerweile wird der Begriff Fake News – wie von Donald Trump – auch als Schimpfwort verwendet, um Medien abzuwerten, die nach journalistischen Regeln arbeiten. Denn ein Maßstab für Nachrichten ist nicht mehr, ob die genannten Fakten wahr oder falsch sind, sondern dass eine Sache so sein könnte oder zur eigenen Meinung passt. Deshalb werden Fake News immer häufiger zum pauschalen Argument gegen Nachrichten, die nicht der eigenen Weltsicht entsprechen, obwohl die Fakten richtig sind.
Dass sich gefühlte und faktische Realität deutlich unterscheiden, zeigt eine Umfrage des Meinungsforschungsinstitut Ipsos: Der muslimische Teil der Bevölkerung wird in vielen Ländern zu hoch geschätzt – die Befragten in Deutschland meinen, dass 21 Prozent Muslime sind, während der Wert nur fünf Prozent beträgt. Hier die Umfrage-Ergebnisse für 40 Länder.
Es sind die Mechanismen von sozialen Netzwerken, die Fake News im Internet so problematisch machen: Alle Mitglieder können publizieren – egal, ob wahr oder falsch – und somit Themen für die eigenen Freunde, Fans oder Follower bei Facebook und Twitter setzen. Und es ist durchaus möglich, dass einzelne Menschen in sozialen Netzwerken ein größeres Publikum erreichen als Parteien. Zudem können die Beiträge mit einem Klick weiterverbreitet werden.
Auch Kommentare und Gefällt-mir-Angaben führen dazu, dass Beiträge einem zusätzlichen Publikum empfohlen werden, weil diese als „beliebt“ gelten. Denn im News Feed werden Beiträge bevorzugt, die viele Reaktionen erhalten – also kommentiert, geteilt oder mit „gefällt mir“ markiert werden.
An diese virale Verbreitung in sozialen Netzwerken sind Fake News angepasst, indem die gefälschten Meldungen etwas skandalisieren oder emotionalisieren, so dass Mitglieder sie kommentieren und teilen. Zu berücksichtigen ist auch, dass die meisten Menschen in sozialen Netzwerken vor allem konsumieren und nur selten publizieren, so dass eine aktive Minderheit verantwortlich sein kann, dass sich Falschmeldungen überproportional verbreiten.
Die eigentliche Quelle von Nachrichten wird in sozialen Netzwerken kaum berücksichtigt, weil sie die Mitglieder über Menschen erreichen, denen man vertraut. Das bedeutet, dass die Vertrauenswürdigkeit der eigenen Freunde auf die verbreiteten Nachrichten übertragen wird. Auch die Popularität von Beiträgen, die sich durch die Zahl der Kommentare und Gefällt-mir-Angaben ausdrückt, wirkt vertrauensbildend.
Zumal sich Nachrichten von vertrauenswürdigen Medien manchmal kaum noch von professionellen Fake News unterscheiden lassen, einerseits, weil die Quelle gegenüber persönlichen Kontakten an Bedeutung verliert und andererseits, weil sich Medien mit Nachrichten ebenfalls an die Mechanismen der sozialen Netzwerke anpassen, also mit ähnlich gestalteten Beiträgen auch eine hohe Reichweite erzielen wollen. Indikatoren für die Qualität von Nachrichten fehlen in sozialen Netzwerken meistens noch, so dass Fake News optimale Bedingungen haben.
„Fake it or make it“ ist ein sogenanntes Serious Game, um Spieler zu sensibilisieren, wie Fake News entstehen und sich verbreiten.
Dass Fake News veröffentlicht werden, hat politische oder finanzielle Gründe. Politisch motivierte Falschmeldungen haben das Ziel, eine Partei oder einen Politiker zu unterstützen und Themen zu setzen, um die Entscheidung der Wähler zu beeinflussen. Und zuletzt sind auch finanziell motivierte Falschmeldungen hinzugekommen.
Diese sind so problematisch, weil die Urheber eigentlich keine politischen Ziele haben, sondern rein wirtschaftlich handeln. Es werden Fake News zu den Politikern, Parteien und Themen veröffentlicht, die am meisten Geld durch Werbung einbringen. Denn solche Falschmeldungen sind ein Köder, um Werbeeinnahmen zu generieren: Wer die erfundenen Nachrichten in sozialen Netzwerken anklickt, öffnet Fake-News-Webseiten, die durch hohe Besucherzahlen auch hohe Preise für Werbeanzeigen fordern können oder bei Klicks auf eingeblendete Werbung mitverdienen. Betreiber von Fake-News-Webseiten manipulieren Menschen mit Falschmeldungen, um Geld zu verdienen, und agieren auch aus Ländern, die sonst keinen Einfluss im Wahlkampf hätten.
Für „Buzzfeed“ haben Craig Silverman und Lawrence Alexander recherchiert, wie Jugendliche in Mazedonien mit Donald-Trump-freundlichen Fake News viel Geld verdienen.
Facebook-Chef Mark Zuckerberg nannte es eine „verrückte Idee“, dass Fake News in seinem sozialen Netzwerk auch Wahlen beeinflussen, weil es sich nur um einen geringen Teil der Beiträge handeln würde (Stand: 11. November 2016). Zuckerberg argumentiert, dass Facebook eine technische Plattform und kein klassisches Medienhaus ist, das für die veröffentlichen Nachrichten verantwortlich ist. Zugleich lässt sich diskutieren, ob ein Internet-Konzern überhaupt die Möglichkeit haben sollte, Beiträge nach selbstgewählten Kriterien zu entfernen, also in die Meinungsfreiheit einzugreifen.
Dennoch hat Facebook im Dezember 2016 in den USA und im Januar 2017 in Deutschland einige Maßnahmen verkündet, um Fake News einzuschränken. Es gibt nun eine Option, um Fake News zu melden, sowie einen Warnhinweis, wenn Beiträge als Fake News eingeordnet wurden. Melden viele Facebook-Mitglieder einen Beitrag als Fake News, wird von sogenannten Fakten-Checkern recherchiert, ob die Nachrichten wahr oder falsch sind. Dazu kooperiert Facebook mit Redaktionen von Medien – für Deutschland wurde das gemeinnützige Recherchezentrum „correctiv“ als bisher erster und einziger Kooperationspartner genannt, das zunächst kostenlos für Facebook arbeitet, um unabhängig zu sein.
Mehr als 100 Fakten-Check-Initiativen hat das „Dike Reporters Lab“ auf einer Karte mit eingetragen. Im deutschsprachigen Raum existieren Mimikama und Hoaxmap.
Falls Fakten-Checker einen Beitrag als Fake News einordnen, wird dieser als „umstritten“ markiert und mit einer entsprechenden Begründung verlinkt. Möchten Facebook-Mitglieder so einen Beitrag teilen, muss der Warnhinweis bestätigt werden. Das soll helfen, dass sich Fake News weniger verbreiten. Auch werden markierte Fake News seltener im News Feed angezeigt und können nicht mehr beworben werden, um Facebook-Mitglieder auf entsprechende Webseiten zu locken. So will Facebook einen transparenten Prozess schaffen, ohne Fake News endgültig zu löschen, der sich nun bewähren muss. Auch Google hat beim Werbeanzeigen-Dienst Adsense reagiert und über 100 Fake-News-Webseiten entfernt, um die lukrativen Werbe-Einnahmen zu stoppen.
Fake News bei Facebook
Um gefälschte Nachrichten bei Facebook zu melden, muss man auf den grauen Button oben rechts im Beitrag klicken. Es öffnet sich ein Menü, um „Beitrag melden“ auszuwählen. Im nächsten Schritt kann man „Dies ist eine Falschmeldung“ anklicken. Diese Option ist nur verfügbar, wenn der Beitrag einen Link enthält.
„Warum Lügengeschichten so gut funktionieren“ – Session von Ingrid Brodnig bei der „republica“ 2016
Fake News zu korrigieren ist nahezu unmöglich, denn das Recherchieren der Fakten, die eine Falschmeldung entlarven, dauert länger als eine Nachricht zu erfinden. Und fast immer ist es so, dass eine Berichtigung weniger Menschen erreicht als die Falschmeldung – mit der Krux, dass manche Menschen durch die Berichtigung überhaupt von den gefälschten Nachrichten erfahren. Das ist ein nicht zu vernachlässigendes Problem: „Aktuelle Studien zeigen, dass Rezipienten Falschnachrichten als wahrhafter und plausibler empfinden, wenn sie ihnen mehrfach ausgesetzt waren – in der Wissenschaft bekannt als Wahrheitseffekt“, sagt der Kommunikationswissenschaftler Philipp Müller in einem ARD.de-Interview. Deshalb sollten die falschen oder erfundenen Punkte nicht durch Verneinung korrigiert und am besten gar nicht wiederholt werden.
FILTER BUBBLE – meine Meinung als Mehrheit
„Das, was ich denke, wird im Internet unterstützt“, sagt eine Frau in der Dokumentation „Manipulation im Netz“ bei zdf info. Sie spricht – vermutlich ohne es zu wissen – über eine Filter Bubble, auf Deutsch: Filterblase. Im Internet findet diese Frau offensichtlich nur Inhalte, die ihrer eigenen Weltsicht entsprechen. Denn Suchmaschinen und soziale Netzwerke versuchen jedem Nutzer das anzuzeigen, was diesen in der aktuellen Situation am meisten interessiert. Ziel ist, dass die Nutzer zufrieden sind und sich wohlfühlen, um auch Werbung zu konsumieren. Denn so finanzieren sich Suchmaschinen und soziale Netzwerke.
Suchtreffer bei Google und News Feeds bei Facebook sind individuell für den Menschen am Bildschirm zusammengestellt – und es können Filterblasen entstehen, in denen hauptsächlich Inhalte angezeigt werden, die zur eigenen Weltsicht passen. Welche Interessen und Einstellungen die einzelnen Nutzer haben, ermitteln Suchmaschinen und soziale Netzwerke anhand der gespeicherten Daten – zum Beispiel vergangene Suchanfragen und Klicks auf Links bei Google. Im News Feed bei Facebook erscheinen vor allem Beiträge von Freunden, mit denen man in Kontakt ist oder die in der Nähe sind.
Verantwortlich für Filterblasen sind sogenannte Algorithmen, die sehr viele Daten analysieren und anhand von hunderten Kriterien entscheiden, um Links oder Beiträge zu selektieren und zu sortieren. Deshalb haben Menschen – zum Beispiel die Frau in der zdf-info-Dokumentation – den Eindruck, dass ihre eigenen Meinungen richtig und mehrheitsfähig sind, weil abweichende Inhalte seltener angezeigt werden. Deshalb sollen Algorithmen schuld sein, dass es weniger Vielfalt gibt und sich die Chance verringert, Themen zu begegnen, die nicht der eigenen Weltsicht entsprechen.
Die Initiative „algorithmwatch“ beobachtet, wie sich Entscheidungen durch Algorithmen auf die (digitale) Gesellschaft auswirken. Und das Team möchte mitwirken, dass Algorithmen zukünftig für das Gemeinwohl agieren: Mission Statement von algorithmwatch.
Fast kein Mensch ist ohne Google oder Facebook im Internet unterwegs: In Deutschland werden Suchmaschinen von über 80 Prozent und soziale Netzwerke von über 50 Prozent der Onliner verwendet – am meisten Google und Facebook, so die Studie der Medienanstalten. Und das könnte die politische Meinungsbildung gefährden, weil Suchmaschinen wie Google und soziale Netzwerke wie Facebook immer mehr den Zutritt zu Neuigkeiten – aus dem Freundeskreis oder aus den Medien – schaffen und dazu Algorithmen einsetzen.
Problematisch ist, dass Algorithmen von Google und Facebook nicht nach journalistischen Regeln funktionieren – also nicht die Qualität und Relevanz von Beiträgen berücksichtigen – und eigentlich nicht kontrolliert werden können, auch weil sich die Kriterien ständig verändern. Schlimmstenfalls können Algorithmen manipuliert werden – von außen und von innen. Denn nicht alle Reaktionen auf Facebook-Beiträge sind echt: Gefällt-mir-Angaben und Kommentare können für wenig Geld gekauft oder durch Social Bots erzeugt werden. Und Facebook hat 2014 ein Experiment durchgeführt, bei dem über 300.000 Mitgliedern eher negative oder eher positive Beiträge im News Feed präsentiert wurden, ohne dass die Probanden es wussten.
Ausführungen zur Frage „Wie gefährlich sind Filterblasen?“ gibt es in der Rubrik #kurzerklärt von tagesschau.de.
Den meisten Menschen ist nicht bewusst, dass Suchmaschinen und soziale Netzwerke mit Algorithmen arbeiten und dass Filterblasen entstehen können. Deshalb fordern Politiker – auch Bundeskanzlerin Angela Merkel – mehr Transparenz hinsichtlich Algorithmen: Google und Facebook sollen die Kriterien veröffentlichen, nach denen selektiert und sortiert wird.
Ein Experiment des „Wall Street Journal“ zeigt, wie Filterblasen entstehen können, je nachdem, ob Facebook-Mitglieder eher liberal oder konservativ sind: Zu verschiedenen Themen wie Waffen, Einwanderung oder Abtreibung wird ein blauer, liberaler News Feed und ein roter, konservativer News Feed präsentiert.
Dass Filterblasen in so einer drastischen Art existieren, ist unwahrscheinlich. „Tatsächlich gibt es kaum Erkenntnisse darüber, wie stark sich die Filterblase konkret auf die Meinungsvielfalt auswirkt“, schreibt Christoph Behrens im SZ-Artikel „Der Mythos von der Filterblase“. Wissenschaftler haben im Science-Magazin eine Studie veröffentlicht, dass bei Facebook für liberale Mitglieder etwa acht Prozent und bei konservativen Mitgliedern etwa fünf Prozent der Beiträge mit abweichenden Ansichten gefiltert wurden. Entscheidend ist der Bekanntenkreis – die Menschen, mit denen man in sozialen Netzwerken verbunden ist, haben vermutlich mehr Einfluss auf den News Feed als Algorithmen. Und Filterblasen sind kein digitales Phänomen, sondern bilden sich auch analog, weil man Kontakt zu Menschen pflegt, die ähnliche Ansichten haben.
„FlipFeed“ ist eine Erweiterung für den Chrome-Browser, die es erlaubt, sich bei Twitter den News Feed von anderen Mitgliedern anzuschauen, die politisch eher rechts oder links gesinnt sind. Das Programm wurde im Media Lab des Massachusetts Institute of Technology (MIT) entwickelt, um Filterblasen zu durchbrechen, indem verschiedene Perspektiven erkennbar werden.
Durch das Experiment mit rotem und blauem News Feed wird dennoch deutlich, dass die Personalisierung der Ergebnisse auch zur Polarisierung in der Gesellschaft führen kann, indem passende Beiträge eingeblendet und abweichende Beiträge ausgeblendet werden. Zu befürchten ist, dass Filterblasen zu einer stärker fragmentierten Öffentlichkeit führen, in welcher sich verschiedene Gruppen und ihre Meinungen zementieren, so dass immer weniger Schnittmengen oder Verbindungen bestehen. Diese Entwicklung wird auch durch Social Bots unterstützt, die ähnlich gesinnte Menschen zusammenführen und gegenüber anderen abgrenzen.
So platzen Filterblasen…
… beim Suchen mit Google:
- persönliche Daten und Privatsphäre in den Google-Einstellungen überprüfen
- aus dem Google-Konto ausloggen
- Daten im Browser wie Verlauf, Cache und Cookies löschen
… beim Surfen mit Facebook:
- News Feed nach „Neuste Meldungen“ satt „Top-Meldungen“ sortieren
- Fanseiten aller politischen Richtungen abonnieren
- Freunde zu einer Liste hinzufügen, um alle Beiträge zu sehen
SOCIAL BOTS – Maschine statt Mensch
Auch Roboter – kurz Bots genannt – sind im Internet so aktiv wie Menschen: Schon seit Jahren sind Bots für die Hälfte des gesamten Traffic verantwortlich, wie der Bot Traffic Report von Imperva Incapsula zeigt. Besonders die Social Bots werden in Zeiten des Wahlkampfs diskutiert.
Es sind automatisierte Profile in sozialen Netzwerken, die sich wie echte Menschen verhalten und bestimmte (politische) Themen promoten. Social Bots werden durch Computerprogramme gesteuert, wirken aber so menschlich wie möglich.
Somit können einzelne Menschen zentralgesteuerte Bot-Netzwerke in den sozialen Netzwerken schaffen, um massenhaft zu Parteien, Politikern oder Themen zu kommunizieren. Die künstlichen Profile schaffen mehr Aufmerksamkeit im Wahlkampf und lassen den Eindruck entstehen, dass bestimmte Themen und Meinungen beliebter und etablierter sind, als es tatsächlich der Fall ist. Es wird mehr Unterstützung vorgetäuscht, als eigentlich in der Gesellschaft existiert – und das mit der Gefahr, dass sich gemäßigte Mitglieder nicht mehr in sozialen Netzwerken beteiligen, weil sie sich nicht mehr repräsentiert fühlen.
„Zwischen Fake News und Social Bots – Bundestagswahl 2017“ – Talk bei „Rock the Blog“ im März 2017
Zusätzlich können Social Bots auch die Verbindungs- oder Kristallisationspunkte für andere, echte Mitglieder in sozialen Netzwerken sein, um sich mit ähnlich gesinnten Menschen zu verbinden. So werden künstliche Netzwerke geschaffen, die ohne Social Bots nicht vorhanden wären. Wenn zahlreiche Social Bots kooperieren und massenhaft zu Themen kommunizieren, verfälschen die Roboter auch die Trends, die soziale Netzwerke erstellen, um ihren Mitgliedern aktuelle und relevante Themen zu empfehlen. Diese „Trending Topics“ können durch Social Bots manipuliert werden und andere – vielleicht unliebsame – Themen verdrängen.
Botswatch ist eine Initiative, um die Aktivitäten von Social Bots bei politischen Ereignissen transparent zu machen. Bisher werden Tweets zu politischen Talkshows oder Parteitagen analysiert, weitere soziale Netzwerke sind in der Testphase. Am gravierendsten ist die Twitteranalyse für eine „Hart, aber fair“-Sendung im Dezember 2016: Nur 132 von 1080 Profilen wurden als Social Bots identifiziert (12 Prozent), die fast 22 Prozent aller Tweets zu Sendung veröffentlichten.
Die Parteien in Deutschland haben zugesagt, im Wahlkampf keine Social Bots zu verwenden und diese auch nicht zu dulden. Denn es ist möglich, dass andere Menschen solche Roboter programmieren, um politisch zu beeinflussen. So berichtet die FAZ über ein mögliches Bot-Netzwerk bei Facebook, das für die AfD kommuniziert und auch Fan-Gruppen verwaltet.
Können solche Roboter tatsächlich Wahlentscheidungen ändern? Das ist bisher nicht nachgewiesen, weil Social Bots im Wahlkampf ein recht neues Phänomen sind, das seit dem Brexit-Referendum und den US-Wahlen ein Thema ist.
Grundsätzlich ist es kompliziert, Social Bots zu erkennen oder zuverlässig zu sagen, ob ein Mensch oder ein Roboter aktiv ist – und es gibt Mischformen. Momentan werden Social Bots hauptsächlich durch ihre hohe Aktivität definiert – zum Beispiel nennt die Initiative „botswatch“ für Twitter durchschnittlich mindestens 50 Tweets und 50 Favoriten pro Tag. Obwohl die Dokumentation „Manipulation im Netz“ von zdf info zeigt, dass ein Facebook-Profil mit über 100 Beiträgen am Tag ausschließlich von einem Menschen verwaltet wird. Zudem gibt es hybride Profile, die teilweise automatisch durch Computerprogramme und teilweise persönlich durch Menschen verwaltet werden.
Um Social Bots zu entlarven, sind zeitaufwendige Recherchen oder Datenanalysen notwendig. Deshalb fehlt es noch an empirischen Studien zu Social Bots und deren Wirkung auf politische Meinungen. „Der Effekt ist eines der großen Fragezeichen bei Bots. Wir wissen faktisch noch gar nicht, wie wichtig das Thema eigentlich ist“, wird der Politik- und Kommunikationswissenschaftler Jonas Kaiser im „journalist“ (3/2017) zitiert.
Bei einer Analyse von rund sechs Millionen Tweets haben Wissenschaftler am University College in London ein Bot-Netzwerk mit mehr als 350.000 Profilen entdeckt, die Zitate aus „Star Wars“-Romanen veröffentlicht haben. In der zufälligen Stichprobe sind die künstlichen Profile aufgefallen, weil viele Tweets mit Ortsangaben in begrenzten – und teilweise unbewohnten – Gebieten versehen waren. Eine Datenanalyse hat dann alle Profile des Bot-Netzwerks identifiziert.
Bots im Internet sind nicht immer negativ, sondern erledigen auch nützliche Dinge – zum Beispiel sind es Roboter, die automatisch das Internet nach Webseiten durchsuchen, um diese für die Suchergebnisse von Google zu sammeln. Dazu „klicken“ sich die unsichtbaren Bots von Link zu Link. Oder sogenannte Chatbots, die von Kunden angesprochen oder angeschrieben werden, um automatisch eine Antwort oder Reaktion zu erhalten – etwa wie das Wetter wird oder wann der nächste Zug fährt.
Fake, Filter und Bots – ein Risiko für die Demokratie?
Klar ist, dass Fake News, Filter Bubbles und Social Bots im Internet existieren – ohne eindeutig feststellen zu können, wie sich diese Phänomene auf die politische Meinung auswirken. Zu den negativen Effekten gibt es viele Thesen, aber derzeit fehlen noch empirische Belege. „Alle Studien sprechen dagegen, dass jemand seine politische Überzeugung ändert, nur weil er eine Nachricht in den sozialen Netzwerken sieht“, so Simon Hegelich in der Kurzstudie „Invasion der Meinungs-Roboter“.
Jedoch können manipulative Elemente mitentscheidend sein, wie unentschlossene Wähler abstimmen. Möglich ist auch, dass sich die negativen Effekte gegenseitig verstärken – zum Beispiel, wenn sich Fake News durch Social Bots verbreiten. Und es kann der Eindruck entstehen, dass populistische Meinungen dominieren und die Demokratie nicht mehr repräsentiert ist.
Es ist bedenklich, dass politische Meinungen zukünftig nicht nur durch Menschen, sondern auch durch Maschinen gestaltet werden. Trotzdem sind es nur wenige Menschen, die sich ausschließlich über Suchmaschinen und soziale Netzwerke informieren, denn die meisten nutzen auch andere Medien, um sich eine politische Meinung zu bilden. Dazu gibt es in Deutschland eine Medienlandschaft, die vielfältiger und ausgeprägter ist als beispielsweise in den USA.
Weil Fake News, Filter Bubbles und Social Bots wohl nicht mehr verschwinden, ist es wichtig, diese Phänomene im Internet zu kennen und kompetent damit umzugehen. Schließlich meint der Medienwissenschaftler Bernd Gäbler im Interview bei Deutschlandradio Kultur: „Ich glaube, dass die Tatsache, dass wir in einer postfaktischen Ära leben, im Großen und Ganzen auch nur so ein Gefühl ist.“
Links zum Thema:
Bitkom-Studie zu Fake News (Stand: Februar 2017)
Fake News bei Facebook – Gefahr für die öffentliche Meinungsbildung? Session der Social Media Week (Stand: Februar 2017)
ARD.de-Spezial: Fake News
Informationsblasen im Internet Grimme Lab (Stand: Januar 2017)
„Angst vor Filterblasen ist übertrieben“ Interview mit Medienforscher Sascha Hölig (Stand: Februar 2017)
Mythos Filterblase von Ben Thies (Stand 11. November 2016)
Social Bots – Invasion der Meinungs-Roboter Kurzstudie von Simon Hegelich (Stand: September 2016)
Social Bots – Fight the Machine? Session der Social Media Week (Stand: Februar 2017)
SMWHH / RTB
Die Erstellung dieses Beitrags wurde vom Minister für Bundesangelegenheiten, Europa und Medien des Landes Nordrhein-Westfalen und Chef der Staatskanzlei gefördert.
Text: Christina Quast • Redaktion: Annette Schneider
Bildredaktion: Georg Jorczyk • Redaktionsschluss: April 2017
Grimme-Institut
Gesellschaft für Medien, Bildung und Kultur mbH
Eduard-Weitsch-Weg 25 • D-45768 Marl
Tel: +49 (0) 2365 9189-0 • Fax: +49 (0) 2365 9189-89
E-Mail: info@grimme-institut.de
Internet: www.grimme-institut.de
Titelbild: maxutov / Fotolia.com