Asset-Herausgeber

Plattformregulierung und Meinungsfreiheit

Warum staatliche Regulierung mit Augenmaß erfolgen sollte

Asset-Herausgeber

Bitte klicken Sie hier, um die Inhalte anzuzeigen.
Oder passen Sie Ihre Cookie-Einstellungen unter Datenschutz an.

Die Online-Plattform TikTok gerät immer wieder in die Schlagzeilen. Seien es grauenhafte Fälle wie der der zehnjährigen US-Amerikanerin Nylah Anderson, die an einer auf der Plattform verbreiteten „Blackout Challenge“ teilnahm und sich dabei mit tödlichen Folgen selbst strangulierte. Oder seien es die suchtfördernden Wirkungen des sozialen Netzwerks, die ihrerseits Risiken vor allem für Kinder und Jugendliche bergen. In den USA droht TikTok ein Verbot. Hierzulande sind derart weitreichende Eingriffe zumindest zurzeit eher unwahrscheinlich. Reguliert wird dennoch – und möglicherweise bedarf es sogar weiterer Ergänzungen der geltenden Rechtslage. Dabei wirft TikTok Sonderprobleme auf, die nicht für jedes soziale Netzwerk in derselben Weise gelten. Gleichwohl rührt die Frage der Regulierung von TikTok an allgemeine Herausforderungen der rechtlichen Erfassung von Plattformen unter der Perspektive der damit unter Umständen einhergehenden Eingriffe in die Meinungsfreiheit. Damit stellt sich die Frage nach dem Spannungsverhältnis zwischen freier Meinungskundgabe und dem Bestreben, Risiken regulatorisch zu fassen, die mit der Nutzung von Online-Plattformen auch über TikTok hinaus einhergehen.

TikTok wird in besonderer Weise von Kindern und Jugendlichen genutzt. Zwar gilt für die Nutzung ein Mindestalter von dreizehn Jahren. Eine effektive Altersüberprüfung seitens der Plattform findet allerdings nicht statt, weshalb viele Nutzer deutlich jünger sind. Das soziale Netzwerk steht seit Langem in der Kritik – insbesondere im Hinblick auf die Gewährleistung von Daten- und Jugendschutz. In der jüngeren Zeit bereitet vor allem das Thema Sucht im Zusammenhang mit TikTok europäischen Behörden Sorge. Ein entsprechendes Prüfverfahren läuft derzeit, dem sich weitere Schritte anschließen könnten. An so weitreichende Folgen wie ein Verbot, das TikTok in den USA droht, dürfte in Europa allerdings aktuell nicht gedacht werden.

Mit dem Digital Services Act gibt es eine europäisch verantwortete Regulierung, die Plattformbetreibern bereits nicht unerhebliche Pflichten auferlegt. Diese betreffen die Sicherheit und Transparenz der Plattform. Insbesondere müssen deren Betreiber aktiv an der Bekämpfung illegaler Inhalte mitwirken, ein Melde- und Beschwerdesystem bereitstellen und mit den Behörden zusammenarbeiten. Gleichwohl ist fraglich, ob der Jugendschutz auf diese Weise hinreichend gewährleistet wird. Gerade vor Suchtgefahren sollten die jüngsten Mitglieder der Gesellschaft bestmöglich geschützt werden. Insoweit bleibt abzuwarten, wie sich die Rechtslage weiterentwickelt – im Hinblick auf TikTok ist nicht ausgeschlossen, dass weitere, strengere Vorschriften flankierend hinzukommen, um Kinder und Jugendliche stärker als gegenwärtig zu schützen. Dies kann beispielsweise die Verwendung bestimmter Algorithmen, eine Verschärfung von Altersgrenzen und deren konsequente Kontrolle betreffen.

 

Netzwerkregulierung und Ziele der Bundesregierung

Der bereits erwähnte Digital Services Act entfaltet seine Wirkung nicht nur im Hinblick auf TikTok, sondern auch bezüglich sämtlicher größerer Plattformen, die ebenfalls hierzulande verbreitet genutzt werden. Ein wesentliches Instrument zum Schutz vor rechtswidrigen Inhalten bilden die Trusted Flagger („vertrauenswürdige Hinweisgeber“). Deren genuine Aufgabe besteht darin, rechtswidrige und strafbare Inhalte im Internet zu bekämpfen – durch Meldungen an die Diensteanbieter, die von diesen vorrangig berücksichtigt werden müssen. Auch in Deutschland sind Trusted Flagger aktiv; zugelassen werden sie von der Bundesnetzagentur. Anders allerdings als im Digital Services Act vorgesehen, versteht die Bundesnetzagentur den Handlungsauftrag der Trusted Flagger in einem weiteren Sinn, nämlich unter anderem in Bezug auf „Hassrede“, „Diskriminierung“ oder Inhalte, die „negative Auswirkungen auf den zivilen Diskurs“ haben. Damit sind auch erlaubte Meinungsinhalte erfasst.

Die Bundesregierung hat sich in ihrem Koalitionsvertrag verschiedene Ziele gesetzt, die wiederum die Regulierung von Plattformen betreffen. Im Vordergrund steht dabei die Bekämpfung von Desinformation beziehungsweise Fake News sowie von Hass und Hetze: Eine „staatsferne Medienaufsicht“ soll demnach „unter Wahrung der Meinungsfreiheit auf der Basis klarer gesetzlicher Vorgaben gegen Informationsmanipulation sowie Hass und Hetze vorgehen können“, und „systematisch eingesetzte manipulative Verbreitungstechniken wie der massenhafte und koordinierte Einsatz von Bots und Fake Accounts müssen verboten werden“. Des Weiteren soll eine „verschärfte Haftung für Inhalte“ geprüft werden.

Im weiteren Sinne betrifft es zudem die Netzwerkregulierung, wenn die neue Bundesregierung prüfen will, „inwiefern eine Strafbarkeit für Amtsträger und Soldaten, die im Zusammenhang mit der Dienstausübung antisemitische und extremistische Hetze in geschlossenen Chatgruppen teilen, eingeführt werden kann“. Dasselbe gilt für die geplante Verschärfung des Volksverhetzungsparagrafen, § 130 Strafgesetzbuch (StGB), da entsprechende Taten mittlerweile zu einem hohen Anteil im Netz begangen werden.

 

Schutzintentionen und „Silencing“-Effekte

Mit den dargelegten Regulierungsmaßnahmen in Bezug auf digitale Netzwerke sind relevante Schutzintentionen verbunden. In sozialen Medien erleben Hass und Hetze (gerade auch unterhalb der Strafbarkeitsschwelle) sowie Desinformationen seit einigen Jahren eine Konjunktur. Hass und Hetze können auf die Bereitschaft anderer einwirken, sich am gesellschaftlichen Diskurs zu beteiligen. Man spricht insoweit von „Silencing“-Effekten. Damit gemeint ist, dass Menschen zur Selbstzensur neigen, wenn sie befürchten, durch ihre Meinungsäußerung negative Abwehrreaktionen anderer hervorzurufen. Anstatt sich frei zu äußern, halten sie sich zurück, um andere nicht dazu zu veranlassen, auf ihre Rede mit einer Widerrede zu reagieren, die die Grenzen des Sachlichen weit überschreitet. Nicht jeder erträgt unsachliche, harsche Kritik, zumal sie Menschen ungleich trifft. Zum Beispiel erleben die Angehörigen marginalisierter Gruppen durch digitalen Hass und digitale Hetze oftmals eine unzulässige Diskriminierung, die sie bereits in anderen Zusammenhängen erleiden mussten. Das macht sie verwundbarer und eher dazu geneigt, ihre Meinung gänzlich zurückzuhalten.

Neben Hass und Hetze kommt es in digitalen Kommunikationsräumen oftmals zu Fehlinformationen über reale Geschehnisse. Sogenannte Fake News können sich auf gesellschaftlich relevante Ereignisse wie einen Krieg, Pandemieschutzmaßnahmen oder einen terroristischen Anschlag beziehen. Oder sie geben falsch wieder, was andere gesagt oder getan haben – seien es Politiker, sonstige Personen des öffentlichen Lebens oder Wissenschaftler. Dabei wäre es naiv, zu denken, dass nicht gerade der Streit darum, worin die geteilte Wahrheit einer Gesellschaft liegt, einen wesentlichen Gegenstand gesellschaftlicher Aushandlungsprozesse darstellt. Wirklichkeitsvorstellungen können in Konkurrenz zueinander geraten; vor allem dann, wenn sie sich auf Ereignisse beziehen, die durch hohe epistemische Unsicherheit geprägt sind, wie etwa aktuelle Kriegsgeschehnisse oder eine Pandemie.

Dass mitunter sehr heftig darüber gestritten wird, wie sich die Dinge tatsächlich verhalten, ist alles andere als verwunderlich: In einer Demokratie kommt es entscheidend darauf an, welche Tatsachen einer Wertentscheidung zugrunde gelegt werden. In Abhängigkeit davon, wie diese ausgestaltet sind, erweist sich die eine oder die andere von mitunter erheblich voneinander abweichenden Varianten als bester Weg zum gesellschaftlichen Umgang mit Herausforderungen wie Pandemien, einem Krieg in Europa oder dem Klimawandel. Dies verdeutlicht die Schädlichkeit von Falschinformationen im Zusammenhang mit der Meinungsfreiheit. Weil es der Tatsachen bedarf, um Wertentscheidungen darauf bezogen treffen zu können, können fehlerhafte Angaben über reale Ereignisse oder Äußerungen Dritter erhebliche Effekte auf den Einzelnen haben. Sie stören den Vorgang der Meinungsbildung, indem sie falsche Prämissen zugrunde legen lassen.

 

Erhebliche Risiken für die Meinungsfreiheit

Trotz dieser berechtigten Schutzinteressen, die im Zusammenhang mit der Regulierung von Plattformen sowie Hass, Hetze und Fake News im Allgemeinen auftreten, bergen staatliche Eingriffe in diesen Bereich ernst zu nehmende Risiken. Die Rede ist von Beeinträchtigungen der Meinungsfreiheit, die nämlich nicht bloß durch Hass, Hetze und Desinformationen selbst auftreten können, sondern gerade auch durch staatliche Intervention zum Schutz davor. Dies zeigt sich bereits am Instrument der Trusted Flagger. Rechtlich erfasst ist vom Phänomenfeld „Hass und Hetze“ lediglich ein vergleichsweise kleiner Bereich, auf den Strafgesetze Bezug nehmen. Im Übrigen sind selbst diskriminierende oder hetzerische Äußerungen beziehungsweise Hass grundsätzlich erlaubt und von der Meinungsfreiheit gedeckt. Selbst wenn Trusted Flagger – anders als von der Bundesnetzagentur vorgesehen – ihre Tätigkeit auf illegale Inhalte begrenzen würden, bliebe es dabei, dass sie erhebliche Risiken für die Meinungsfreiheit bergen. Ob eine Äußerung rechtswidrig ist, erweist sich in sehr vielen Fällen als schwierige Frage des Einzelfalls, die von Gerichten zu klären ist. Dass private Organisationen oftmals ohne entsprechenden juristischen Sachverstand insoweit auch nur annähernd fehlerfrei arbeiten, ist ausgeschlossen. Wahrscheinlich ist dann aber, dass es zu einer umfangreichen Meldung erlaubter Inhalte kommt, die im Zweifel schon deshalb von den Plattformbetreibern gelöscht werden, weil diese ihrerseits Sanktionen fürchten, falls sie dem Wunsch nach Löschung nicht nachkommen.

Für die Meinungsfreiheit bedeutet es außerdem ein nicht zu unterschätzendes Risiko, wenn sich der Staat als „Hüter der Wahrheit“ geriert: zum einen deshalb, weil menschliche Wissensbestände stets vorläufig sind. Oftmals müssen sie nachträglich korrigiert werden. Hierin liegt übrigens mitnichten ein Fehler wissenschaftlichen Arbeitens. Es entspricht gerade dem Prozess des menschlichen Erkenntnisgewinns, dass Irrtümer unterlaufen, die durch neueres Wissen oder weitergehendes Nachdenken, möglicherweise einen innovativen Forschungsansatz, korrigiert werden müssen. Zudem kann es aufgrund der stets in gewisser Weise beschränkten Erkenntnismöglichkeiten des Menschen nie eine „absolute“ Wahrheit geben.

Zum anderen geht mit der Rolle des Staates als „Wahrheitshüter“ das Risiko einher, dass gerade solche Positionen unterdrückt werden, die zum gegenwärtigen Zeitpunkt nur wenige überzeugen, sich jedoch im Verlauf der Zeit als richtig erweisen. Die Wissenschaftsgeschichte kennt eine Fülle solcher Beispiele. Indem der Staat festlegt, was richtig und was falsch ist, nimmt er sich eine Deutungsmacht heraus, die sich besonders schädlich auf den freien gesellschaftlichen Diskurs und den Erkenntnisfortschritt auswirkt.

 

Gefahr des „chilling effects“

Sowohl Trusted Flagger und deren weitreichende Meldung von Meinungsinhalten, zu denen auch erlaubte gehören, als auch die staatliche Bekämpfung von Desinformation kann mit ernst zu nehmenden „chilling effects“ einhergehen. Gemeint ist, dass sich Menschen infolge einer rechtlichen Regelung oder sonstiger hoheitlicher Maßnahmen in ihrer Bereitschaft gehemmt fühlen, die eigene Meinung kundzutun. Können sie nicht sicher sein, ob sie dadurch in den Fokus von Trusted Flaggern geraten beziehungsweise als Verbreiter von Desinformation eingestuft werden, halten sie sich lieber zurück – mit dem Ergebnis, dass ihre Meinungsfreiheit selbst dort beschnitten wird, wo sie sie erlaubterweise ausüben dürften.

Schon das Bundesverfassungsgericht erkennt, dass sich derartige Effekte äußerst negativ auf den offenen gesellschaftlichen Diskurs als Herzstück einer freiheitlichen Demokratie auswirken. Halten sich Menschen mit ihrer Meinung zurück, besteht das Risiko, dass relevante Argumente oder Positionen nicht beziehungsweise nicht angemessen diskutiert werden. Die gemeinsamen gesellschaftlichen Aushandlungsergebnisse werden dann notwendigerweise schlechter. Gerade in einer Gesellschaft, die über viele gegenwärtige Herausforderungen und den Umgang mit ihnen gespalten ist, nimmt der offene Diskurs eine – wenn nicht die – zentrale Bedeutung ein. Dabei ist klar, dass ein Großteil des gesellschaftlichen Gesprächs mittlerweile zumindest auch im digitalen Raum stattfindet. Staatliche Regulierung in diesem Bereich sollte daher mit Augenmaß erfolgen. Relevante Belange – wie Jugendschutz – sollten Berücksichtigung finden. Wichtig ist allerdings zugleich, möglichst breiten Raum für freie Debatten zu belassen, um nicht da Gespräche abzuschneiden, wo sie im Interesse aller offen geführt werden sollten.

 

Frauke Rostalski, geboren 1985 in Bad Nauheim, seit 2018 Inhaberin des Lehrstuhls für Strafrecht, Strafprozessrecht, Rechtsphilosophie und Rechtsvergleichung, Universität zu Köln, seit 2020 Mitglied des Deutschen Ethikrates.

comment-portlet