Asset-Herausgeber

Social Bots, Trolle, Fake-News

von Simon Hegelich

Wie gefährlich sind sie für die Demokratie?

Asset-Herausgeber

Seit einigen Monaten wird in Deutschland intensiv über die Gefahren durch Social Bots diskutiert. Schon länger gibt es Bedenken, Trolle würden die öffentliche Meinung verzerren und zu einem Klima des Hasses in den sozialen Netzwerken beitragen. Spätestens seit der Präsidentenwahl in den Vereinigten Staaten werden diese Debatten durch den Begriff der Fake-News verschärft – mit der Befürchtung, dass die sozialen Netzwerke zu einer sich ausbreitenden populistischen Revolution beitragen würden. Vielen Äußerungen in diesen Debatten, gerade auch in der Medienberichterstattung, ist ein Hang zur Sensationssuche anzumerken – und zwar in beide Richtungen: Mal wird der Untergang des Abendlandes an die Wand gemalt, mal wird die gesamte Debatte als Hype verteufelt, weil die Phänomene Lügen, Claqueure und auch Bots nichts Neues seien.

Der folgende Beitrag versucht, diesen Extremen zu entkommen, indem er aufzeigt, welche Veränderungen tatsächlich zu beobachten sind und welche Risikopotenziale aus Sicht der Forschung bestehen. Die Grundthese lautet, dass wir in erster Linie eine technisch geprägte Revolution erleben, die mit tief greifenden gesellschaftlichen Veränderungen einhergeht. Eine politische Datenwissenschaft, die politikwissenschaftliche Expertise mit Wissen über die Funktionsweise sozialer Netzwerke verbindet, kann diese Wechselwirkungen aufzeigen.

Die Begriffe Social Bots, Trolle und Fake-News sind keine wissenschaftlich sauber definierten Kategorien, sondern eine Mischung aus empirischem Befund und politischer Interpretation. Das zentrale Element, durch das diese drei Begriffe zu Arten der politischen Manipulation werden, ist die böswillige Absicht. Social Bots geben vor, echte Menschen zu sein, sind aber Nutzer in den sozialen Netzwerken, die durch eine dahinterliegende Software gesteuert werden. Trolle sind Menschen, die Diskussionen bewusst stören wollen. Bei Fake-News geht es nicht um schlechte Berichterstattung, sondern darum, durch bewusste Falschmeldungen einen Effekt zu erzielen. Die böswillige Absicht ist zugleich der Grund, warum man bei diesen Definitionen sehr vorsichtig sein muss.

Wie man am Gebrauch des Wortes Fake-News sieht, kann das Unterstellen einer solchen Absicht zum Argument werden, warum man sich mit den geäußerten Standpunkten nicht auseinandersetzen muss. Diese Unsauberkeit der Definitionen ist aus politikwissenschaftlicher Sicht keine Besonderheit: Was für die einen ein „Terrorist“ ist, ist für andere möglicherweise ein „Freiheitskämpfer“.

Überschneidung von zwei Trends

Eine Schwierigkeit bei der Analyse der Phänomene Social Bots, Trolle und Fake-News liegt – mit Ironie betrachtet – darin, dass die Gesellschaft uns Wissenschaftlern nicht den Gefallen tut, ein paar Jahre stillzustehen, damit wir unter experimentellen Bedingungen den Einfluss einer neuen Technik studieren können. Wir haben in den letzten Jahren tief greifende Veränderungen erlebt, die zunächst nichts mit sozialen Netzwerken zu tun haben, die aber die gesellschaftlichen Entwicklungen, die nun mit Fake-News et cetera in Verbindung gebracht werden, maßgeblich bedingt haben: Die Krise der EU ist zunächst keine Social-Media-Krise, die Radikalisierung der Konkurrenz zwischen den amerikanischen Parteien kam nicht aus dem Internet und der Vertrauensverlust, den Parteien und Medien in Deutschland erleben, ist kein Abfallprodukt irgendwelcher Algorithmen.

Vielmehr sehen wir in den letzten Jahren eine Dynamik in politischen Prozessen, die wir – gerade auch in der Politikwissenschaft – so nicht für möglich gehalten hätten. Was auch immer die wahren Gründe dieser Veränderung sind, sie fällt zeitlich mit dem Aufstieg der sozialen Netzwerke zusammen. Diese Überschneidung zweier Trends führt in der empirischen Betrachtung zu „Scheinkorrelationen“. Zwei kausal unabhängige Entwicklungen nehmen gleichzeitig Fahrt auf, und es entsteht der Eindruck eines Wirkungszusammenhangs. Man muss jedoch davor warnen, alles, was politisch gleichzeitig mit der Weiterentwicklung des Internets passiert, kausal auf Letztere zurückführen zu wollen.

Facebook gibt es seit 2004, Twitter seit 2006. Es hat ein paar Jahre gedauert, bis diese Netzwerke wirkliche Massenphänomene wurden. Aktuelle Studien gehen davon aus, dass heute etwa ein Drittel der deutschen Bevölkerung auf Facebook ist und dort im Durchschnitt eine halbe Stunde am Tag verbringt. Die Zunahme der Verweildauer in den sozialen Netzwerken geht insbesondere auf die mobile Internetnutzung zurück. Im Jahr 2016 nutzte circa jeder Zweite in Deutschland Internetangebote über Smartphone oder Handy.

Gänzlich neue Öffentlichkeit

Der entscheidende Schritt vom „klassischen Internet“ zu sozialen Netzwerken liegt darin, dass nun jeder Nutzer selbst zum Sender von Informationen werden kann. Das heißt, wir haben plötzlich eine Infrastruktur, in der das alte Oligopol der Meinungsbildung aufgebrochen ist. Um eine politische Nachricht massenhaft zu verbreiten, war früher der Zugang zu den Massenmedien oder zumindest eine politische Organisation notwendig, die mit viel Aufwand versuchen musste, die Bürger anzusprechen. Heute kann im Prinzip jeder zu jeder Zeit und von jedem Ort aus eine Nachricht verfassen, die um die Welt geht. Dies ist nicht weniger als ein disruptiver Umbruch der demokratischen Öffentlichkeit, und die positiven und negativen Folgen werden unser demokratisches System radikal verändern.

Diese disruptive Veränderung der Öffentlichkeit ist zunächst aus demokratietheoretischer Sicht grundsätzlich zu begrüßen. Ideale wie „der umfassend informierte Bürger“, die „Unabhängigkeit von Medienkonzernen“ und der „direkte Dialog zwischen Politik und Bürger“ werden nun zum ersten Mal technisch umsetzbar.

Die derzeitige Realität sieht allerdings etwas anders aus, wie die Debatte um Bots und Co. zeigt. Dafür gibt es einige einfache Gründe: Erstens wurden die sozialen Netzwerke nicht entwickelt, um als neue Werkzeuge der politischen Kommunikation zu dienen. Es sind Plattformen, bei denen die Betreiber ein Geschäft damit machen, die Inhalte, die die Nutzer bereitwillig teilen, zu vermarkten. Mehr Nutzer in diese Netze zu ziehen und ihre Verweildauer zu steigern, sind die Ziele des Wettbewerbs. Ob dabei eine vernünftige politische Debatte entsteht, ist aus dieser Perspektive nebensächlich. Zweitens baut sich auf das Geschäftsmodell der Netzwerkbetreiber eine ganze Industrie auf, die mit allen Tricks versucht, von den Werbeeinnahmen zu profitieren, und die nicht davor zurückschreckt, gezielt Bots, Falschmeldungen oder extreme Überspitzungen zu nutzen, um Nutzer auf ihre Seiten zu locken. Politische Aufregung lässt sich dort kommerziell nutzen.

Drittens haben staatliche Stellen, die sich mit der Analyse, aber auch der gezielten Manipulation der öffentlichen Meinung beschäftigen, sehr früh erkannt, dass diese Netzwerke ein großes Potenzial für eine „Steuerung“ der politischen Willensbildung enthalten. In großen Programmen und Studien werden Techniken entwickelt, wie ganze Netzwerke durch Bots unterwandert werden können, wie sich politischer Protest organisieren lässt und wie massenhaft Verunsicherung verbreitet werden kann. Diese militärischen Techniken sind inzwischen bekannt und werden als eigenes Geschäftsmodell jedem angeboten, der dafür bezahlen möchte. Es ist also nicht die Technik, die die Probleme verursacht, sondern es sind die Interessen, denen diese Technik dienstbar gemacht wird.

Keine politische Debatte ohne Social Bots

Leider muss man eingestehen, dass die wissenschaftliche Untersuchung dieser Phänomene noch am Anfang steht. Was bisher gelungen ist, ist der empirische Nachweis, dass es in den sozialen Netzwerken praktisch keine politische Debatte gibt, ohne dass darin Social Bots, Trolle oder Fake-News auftauchen. Schon bei der Quantifizierung – also der Frage, wie viele Bots et cetera wo auftauchen – wird es sehr schwierig. Ein Grund dafür ist, dass unterschiedliche Definitionen verwendet werden. Ist ein Bot ein besonders aktiver Account oder eher ein besonders unauffälliger? Gilt ein Kommentar als Trollbeitrag, weil er besonders aggressiv ist oder weil der Nutzer bereits hundert ähnliche Kommentare gepostet hat? Ist eine Meldung Fake-News, weil sie inhaltlich verkehrt ist oder weil die Überschrift nicht wirklich zum Text passt?

Auch über die zu verwendenden Methoden herrscht derzeit keine Klarheit. Manche Forscher verwenden aufwendige statistische Modelle, die schwierig zu interpretieren sind, andere vertrauen auf einfache Heuristiken. Aber auch wenn die Methoden besser werden, eines wird die Wissenschaft in absehbarer Zeit nicht zustande bringen: den unumstößlichen Nachweis, dass diese Formen der Manipulation einen politischen Effekt haben. Denn diese Gretchenfrage entzieht sich dem sozialwissenschaftlichen Zugriff. Es lässt sich nie mit hundertprozentiger Sicherheit sagen, wie sich dieselben Menschen ohne den Kontakt mit den sozialen Medien in genau der gleichen Situation verhalten hätten.

Das heißt aber nicht, dass sich nicht einiges mit Gewissheit herausfinden lässt. Mit Sicht auf den zurückliegenden amerikanischen Wahlkampf ist bekannt, dass für die Kampagnen von Clinton und Trump, aber auch schon im Vorwahlkampf bei Sanders und Cruz, Wahlkampfhelfer versucht haben, die Stimmung in den sozialen Netzwerken für ihre Kandidaten zu beeinflussen, also als Trolle unterwegs waren. Wir können auch feststellen, dass insbesondere zu strategisch wichtigen Zeitpunkten, wie während der TV-Duelle, eine starke Botaktivität zu verzeichnen war. Und wir wissen, dass sich einige bewusst lancierte Falschmeldungen massenhaft verbreitet haben.

Es wäre daher nahezu töricht, per se anzunehmen, dass Social Bots, Trolle und Fake-News nicht auch „irgendwie“ einen Einfluss auf die Wahl hatten. Schauen wir nach Deutschland, dann lässt sich zeigen, dass im Zuge der Flüchtlingsdebatte im Umfeld von AfD und Pegida viele Anzeichen für den systematischen Einsatz von Social Bots, Trollen und Fake-News zu finden sind, während solche Funde bei allen anderen politischen Akteuren nur vereinzelt auftreten. Es lässt sich auch zeigen, dass einzelne Nutzer zehntausendfach Kommentare gegen Flüchtlinge schreiben und ähnliche Kommentare „liken“. Können wir uns erlauben, davon auszugehen, dass diese Aktivitäten keine Wirkung zeigen?

Warum die Manipulation gelingt

Die eigentlichen Risiken entstehen durch indirekte Effekte. Nach wie vor ist es so, dass Trends aus den sozialen Netzwerken einfach für bare Münze genommen werden. Über den Erfolg der AfD auf Facebook wird berichtet, als wären jeder Fan und jeder Like eine demokratische Willensäußerung. Auch Artikel, die darstellen, dass mehr Fake-News über Merkel geteilt werden als „echte“ Nachrichten, vergessen, dass solche Zahlen ohne vorherige forensische Analyse heutzutage keinen Aussagewert haben. Die Beispiele zeigen, dass die Verfälschung von Trends zu einer verzerrten Wahrnehmung auch bei Journalisten und Politikern führen kann. Es ist nicht auszuschließen, dass die Manipulation genau durch diese nachträgliche Verbreitung gelingt.

Ein zweiter indirekter Effekt ergibt sich aus der technischen Struktur der sozialen Netzwerke. Im Prinzip belohnt jeder Algorithmus Masse. Ein Beitrag, der tausendfach gelikt wird, wird automatisch mehr Nutzern gezeigt und wird eventuell dadurch viral, sprich von echten Nutzern aufgegriffen und verbreitet.

Der dritte Effekt, der uns Sorge bereiten sollte, besteht darin, dass sich eine Stimmung der Verunsicherung kreieren lässt. Wenn ich immer wieder und gezielt mit falschen Informationen konfrontiert werde, dann sinkt mein Vertrauen in die Informationen insgesamt. Selbst wenn ich meine Meinung nicht ändere, bleibt vielleicht ein Zweifel zurück. Diese Verunsicherung wiederum kann bewirken, dass Informationen, die der eigenen Meinung widersprechen, von vornherein als falsch abgelehnt werden, während alles, was aus dem eigenem Netzwerk kommt, unhinterfragt als wahr stehen bleibt. Ein solches Klima ist ein willkommener Nährboden für populistische Kräfte.

Umgekehrt sehen wir aber auch, dass die Nutzer nicht dumm sind. Die Möglichkeit der Manipulation nimmt mit der Zunahme des Wissens der Menschen ab. Und obwohl den sozialen Netzwerken teils zweifelhafte Geschäftsmodelle und Interessen zugrunde liegen, sind sie eine unglaublich potente Infrastruktur für die Verbreitung von Wissen.

-----

Simon Hegelich, geboren 1976 in Herborn, Professor für Political Data Science an der Hochschule für Politik an der Technischen Universität München.

comment-portlet