Die Algorithmen marktbeherrschender Online-Plattformen entscheiden, welche Informationen sichtbar werden. Sie fördern gezielt bestimmte Botschaften, treiben deren virale Verbreitung voran, lenken unser Verhalten. Die digitalen Gatekeeper müssen laut Verordnung der Europäischen Union[1] im Rahmen der „Digitalstrategie für Europa“ transparent machen, wie ihre Empfehlungssysteme Informationen anzeigen. Zudem müssen sie vier zentrale Risikobereiche besonders im Blick behalten: illegale Inhalte, Grundrechtsverletzungen, Gefahren für Demokratie und öffentliche Sicherheit sowie Risiken für die Gesundheit. Darüber hinaus sollen sie intensiv prüfen, wie ihre Dienste zur Verbreitung oder Verstärkung von Desinformation beitragen – vor allem durch algorithmische Empfehlungssysteme.
Mit ihrem Digital Services Act (DSA) und weiteren Regulierungsmaßnahmen versucht die Europäische Union, Transparenz und Verantwortlichkeit in der digitalen Öffentlichkeit zu stärken. Doch die Umsetzung ist politisch umkämpft – insbesondere seit der Rede von US-Vizepräsident J.D. Vance am 14. Februar 2025 auf der Münchner Sicherheitskonferenz, in der er europäische Regulierungsansätze als „Zensur“ bezeichnet hat. [2] Vance und andere US-Vertreter stellen europäische Maßnahmen zur Plattformaufsicht als Bedrohung der Meinungsfreiheit dar – und damit als größte Gefahr für Europa.[3]
Diese Kritik verkennt, dass Europas Regulierungsbestrebungen auf realen Erfahrungen beruhen: Die sozialen Medien haben nicht nur neue Kommunikationsräume geschaffen, sondern auch zu Gewalttaten und Selbstverletzungen aufgerufen sowie die Verbreitung gefährlicher Verschwörungstheorien beschleunigt. Autoritäre Staaten verwenden Desinformation als Waffe zur Manipulation der öffentlichen Meinung, Kriminelle nutzen Plattformen für Betrug und zur Erpressung.[4]
Wie TikTok Wahlen beeinflusste
Bei den jüngsten Präsidentschaftswahlen in Polen und Rumänien spielte TikTok eine zentrale Rolle für den Aufstieg rechtsradikaler Kandidaten. Innerhalb weniger Wochen wurden zuvor weitgehend unbekannte Personen zu politischen Schwergewichten. Der sprunghafte Zuwachs an Followern sowie die rasante Verbreitung ihrer Inhalte waren kein Zufall: Dahinter stand ein gezieltes Vorgehen zur algorithmischen Verstärkung[5] ihrer politischen Botschaften, ins Werk gesetzt durch ein loses Netzwerk ideologisch nahestehender oder kommerziell arbeitender Influencer – und den massenhaften Einsatz automatisierter Bot-Konten.[6]
Das Geschehen zeigt einmal mehr, wie soziale Medien – und insbesondere TikToks Empfehlungsmechanismen – politische Dynamiken beeinflussen und demokratische Prozesse verzerren können: Einzelne populistische Inhalte werden gezielt durch Bot-Netzwerke manipuliert. Dabei geht es nicht darum, Menschen zu überzeugen, sondern darum, die Empfehlungsalgorithmen der Plattformen zu täuschen. Die Bots erzeugen künstlich Reichweite, indem sie massenhaft Likes, Shares, Kommentare und Reposts simulieren. So werden die Plattformen gezielt dazu verleitet, größtenteils manipulierte Inhalte automatisiert an ein immer breiteres Publikum auszuspielen – ganz so, als handelte es sich um organisch entstandene Trends.[7]
Empfehlungsmechanismen mit Rechtsaußendrall
Wenige Tage vor der Stichwahl zur Präsidentschaft in Polen am 1. Juni 2025 stellte die internationale Nichtregierungsorganisation Global Witness fest: TikToks Algorithmus zeigte neuen, politisch ausgewogenen Nutzerkonten doppelt so viele rechtsextreme und nationalistische Inhalte wie zentristische oder linksorientierte Feeds. Bereits frühere Tests zu Wahlen in Polen und Rumänien legen nahe, dass TikToks Empfehlungsalgorithmus die Nutzer systematisch in Richtung rechtsextremer Inhalte lenkt. Testkonten wurden deutlich häufiger mit Inhalten zugunsten nationalkonservativer Kandidaten bespielt als mit solchen, die zentristische Kandidaten unterstützten.[8] Auch in Deutschland zeigte sich bei der letzten Bundestagswahl ein ähnliches Muster: Inhalte der AfD tauchten überproportional oft als erste Beiträge im For You-Feed von TikTok auf.[9]
In welchem Ausmaß die verstärkte Präsenz bestimmter Inhalte in den sozialen Medien tatsächlich Wähler mobilisiert oder ihre Entscheidung für eine bestimmte Partei beeinflusst, lässt sich kaum eindeutig belegen. Doch eines steht fest: Laut Eurobarometer sind algorithmisch gesteuerte Social-Media-Feeds inzwischen die wichtigste Informationsquellen zu politischen Themen für Europäerinnen und Europäer im Alter von unter dreißig Jahren.[10] Dies ist eine besorgniserregende Entwicklung, die demokratische Kräfte in höchste Alarmbereitschaft versetzen sollte – denn wer die Informationskanäle kontrolliert, prägt zunehmend die politische Meinungsbildung junger Menschen.
Algorithmische Verstärkung statt echter Moderation
Mittlerweile ist unumstritten: Die Versprechen der großen digitalen Plattformen, Fakten zu überprüfen und Inhalte wirksam zu moderieren, entpuppen sich als Finte.[11] Meta und Co. wissen schon lange, dass weder Faktenchecks noch Inhaltsmoderation das eigentliche Problem lösen können – das überdies von ihren eigenen Empfehlungsalgorithmen geschaffen wird. Ein internes Meta-Dokument aus dem Jahr 2019, das durch die US-amerikanische Informatikerin und Whistleblowerin Frances Haugen an die Öffentlichkeit gelangte, kommt zu einem ernüchternden Fazit: Moderation in großem Maßstab sei unmöglich. Stattdessen müsse der Fokus darauf liegen, die algorithmische Verstärkung schädlicher Inhalte zu verhindern: „Wir werden niemals alle schädlichen Inhalte von einem Kommunikationsmedium entfernen können, das von so vielen genutzt wird. Aber zumindest können wir verhindern, dass diese Inhalte durch unnatürliche Verbreitung eine übermäßige Aufmerksamkeit erhalten.“ [12]
Die derzeitigen Maßnahmen der Europäischen Kommission im Rahmen des Digital Services Act – darunter mehrere Ermittlungen gegen Plattformbetreiber, ein freiwilliger Kompromiss von TikTok bei einem neuen Produktlaunch in Spanien[13] sowie laufende Transparenzstudien – sind zwar Schritte in die richtige Richtung, reichen aber bei Weitem nicht aus, um das Problem zu lösen.
Desinformation zersetzt die Meinungsfreiheit, untergräbt das Vertrauen in demokratische Institutionen und beschädigt die Glaubwürdigkeit faktenbasierter Medien. Damit ist sie längst nicht mehr nur ein Nebengeräusch digitaler Öffentlichkeit, sondern ein systemisches Risiko für den demokratischen Diskurs und faire Wahlen.
Erste Studien zeigen, wie gezielt ausländische Akteure Desinformation einsetzen, um Gesellschaften zu destabilisieren.[14] Die Erfahrungen im Zuge der Wahlen in Rumänien, Deutschland und Polen liefern der Europäischen Kommission ausreichenden Anlass, um endlich eine umfassende Untersuchung gemäß Artikel 34 DSA einzuleiten. Ziel müsste sein, inhaltsneutral jene Mechanismen zu identifizieren, die zur massenhaften Verbreitung von Desinformation führen – insbesondere im Kontext von Wahlen.
Wer soll auswählen: User oder Algorithmus?
Doch bei der Analyse darf es nicht bleiben. Auf Basis von Artikel 35 DSA sollte die Kommission konkrete Gegenmaßnahmen ergreifen: etwa Schritte, die algorithmische Verstärkungsmechanismen eindämmen – und zugleich die Entscheidungsmacht der Nutzerinnen und Nutzer stärken. Denn in einer demokratischen Öffentlichkeit müssen alle selbstbestimmt entscheiden können, welche Inhalte sie sehen – statt sich von undurchsichtigen Empfehlungssystemen leiten zu lassen, die auf Profiling und die Aufmerksamkeit maximierende Algorithmen setzen. Demokratischer Diskurs lebt von bewusster Auswahl, nicht von algorithmisch gesteuerter Beeinflussung.
Diese Maßnahme stellt keinen Eingriff in die Meinungsfreiheit dar – nicht die freie Rede wird eingeschränkt, sondern ihre künstliche Verstärkung. Es geht um die Macht der Algorithmen, nicht um die Meinungsäußerung von Menschen. Europäische Internetnutzerinnen und -nutzer sollten selbst entscheiden, was sie online sagen, sehen und teilen. Und es nicht Systemen überlassen, die möglicherweise von feindlich gesinnten ausländischen Akteuren kontrolliert werden.
Sobald algorithmische Empfehlungssysteme deaktiviert werden, fällt der automatische Vorteil für autoritäre Inhalte weg. Statt systematisch bevorzugt zu werden, müssen sie sich ihren Platz in der digitalen Aufmerksamkeitsökonomie zurückerobern – im Wettbewerb mit Katzenvideos, Tanzclips und allen anderen Inhalten im digitalen Raum[15], und das in Echtzeit. Die Abschaltung von Empfehlungsalgorithmen würde nicht nur die demokratische Debatte entlasten – sie wäre auch ein wirksamer Schutz für Kinder und Jugendliche davor, dass ihnen toxische Inhalte ungefragt in ihre Feeds gespült werden.
Der Digital Services Act und die Datenschutzgrundverordnung bieten starke Instrumente, die auf den neuen sicherheitspolitischen Kontext Europas zugeschnitten sind. Doch ihre Wirksamkeit hängt vom politischen Willen ab – von dem Mut, der Verantwortung und dem Bewusstsein dafür, in welcher prekären Lage sich Europa aktuell befindet. Die Durchsetzung dieser Regeln darf nicht zur Verhandlungsmasse in handelspolitischen Beziehungen mit den USA oder China werden. Es geht um mehr: den Schutz der Demokratie.
Pencho Kuzev, geboren 1980 in Veles (Mazedonien), promovierter Jurist, Referent Daten- und Wettbewerbspolitik, Hauptabteilung Analyse und Beratung, Konrad-Adenauer-Stiftung.
[1] Erwägungsgrund 70ff. der Verordnung (EU) 2022/2065 (Digital Services Act).
[2] Munich Security Conference 2025, Speech by JD Vance and Selected Reactions, Vol. 2, S. 15, https://securityconference.org/publikationen/buecher/key-speeches-volume-ii-jd-vance-msc-2025/ [letzter Zugriff: 24.07.2025].
[3] Ebd.
[4] Damian Collins: „What happened at the AI summit in Paris?“, in: The New World, 15.02.2025, www.thenewworld.co.uk/damian-collins-what-happened-at-the-ai-summit-in-paris/ [letzter Zugriff: 24.07.2025].
[5] Dabei handelt es sich um ein vollständig oder teilweise automatisiertes System, das von einer Online-Plattform verwendet wird, um auf ihrer Online-Schnittstelle den Nutzern bestimmte Informationen vorzuschlagen oder diese Informationen zu priorisieren.
[6] Martin Gak: „Poland 2025 – The digital engineering of Nawrocki’s victory“, in: Defend Democracy, 17.07.2025, https://defenddemocracy.eu/poland-2025-the-triumph-of-the-far-rights-digital-machine/ [letzter Zugriff: 24.07.2025].
[7] Ebd.
[8] Global Witness: TikTok algorithm recommends twice as much hard right content to users ahead of Polish election, London, 29.05.2025, https://globalwitness.org/en/campaigns/digital-threats/tiktok-algorithm-recommends-twice-as-much-hard-right-content-to-users-ahead-of-polish-election/ [letzter Zugriff: 24.07.2025].
[9] Anna Katzy-Reinshagen / Martin Degeling / Solveig Barth / Mauritius Dorn: „Wie TikTok mit parteipolitischen Inhalten im Vorfeld der Bundestagswahl 2025 umgeht“, in: Institute for Strategic Dialogue gGmbH (ISD Germany), 22.02.2005, https://isdgermany.org/wahlkampf-im-feed-wie-tiktok-mit-parteipolitischen-inhalten-im-vorfeld-der-bundestagswahl-2025-umgeht/ [letzter Zugriff: 24.07.2025].
[10] Europäische Union: Youth survey 2024, Februar 2025, https://europa.eu/eurobarometer/surveys/detail/3392 [letzter Zugriff: 24.07.2025].
[11] Johnny Ryan: „Europe’s race to rearm is pointless if its adversaries are waging war online“, in: The Guardian, 15.04.2025, www.theguardian.com/commentisfree/2025/apr/15/us-europe-military-spending-trump-ireland [letzter Zugriff: 24.07.2025].
[12] Natasha Lomas: „Meta urged to pay reparations for Facebook’s role in Rohingya genocide“, in: TechCrunch, 29.09.2022, https://techcrunch.com/2022/09/29/amnesty-report-facebook-rohingya-reparations/ [letzter Zugriff: 24.07.2025].
[13] TikTok hatte sich im Rahmen eines förmlichen Verfahrens der EU-Kommission verpflichtet, das neue Programm „TikTok Lite Rewards“ vollständig zurückzuziehen, und zwar nicht nur vorübergehend, sondern dauerhaft, sowie darauf zu verzichten, künftig ein ähnliches Programm einzuführen. Das Programm motivierte junge Menschen unter anderem, täglich mehr Zeit auf TikTok zu verbringen und tägliche Aufgaben zu erfüllen, um Punkte zu sammeln. Diese Punkte konnten dann gegen Gutscheine, virtuelle Währungen oder andere Prämien eingetauscht werden.
[14] Country Report: Assessment of Foreign Information Manipulation and Interference (FIMI) in the 2025 German Federal Election, https://fimi-isac.org/wp-content/uploads/2025/07/Germany-CERA_Final.pdf [letzter Zugriff: 24.07.2025].
[15] Johnny Ryan: „Europe’s race to rearm is pointless if its adversaries are waging war“, in: The Guardian, 15.04.2025, www.theguardian.com/commentisfree/2025/apr/15/us-europe-military-spending-trump-ireland [letzter Zugriff: 24.07.2025].