Jim Bourg, Reuters

Auslandsinformationen

Meinungsfreiheit stärken – Desinformation abgestuft regulieren

von Tobias Schmid, Daphne Wolter

Zum öffentlichen Diskurs im digitalen Raum

Desinformationen – wir waren alle einmal in Kontakt mit ihnen, auch wenn wir sie nicht unbedingt als solche wahr­genommen haben. Eine forsa-Befragung zum Safer Internet Day 2021 hat ergeben, dass 83 Prozent der jungen Nutzer­innen und Nutzer zwischen 14 und 24 Jahren bereits Falsch­nachrichten in sozialen Netzwerken begegnet sind. Doch worüber reden wir, wenn wir von Desinformationen oder Fake News sprechen? Wie viel muss eine Demokratie aushalten können, damit sie nicht als instabil bezeichnet wird? Und ab wann bedarf es eines regulatorischen Eingriffs, um sie und den für sie so notwendigen Meinungsbildungsprozess zu schützen?

Hintergrund

Dies ist nur eine Auswahl der Fragen, die sich stellen, wenn man sich mit dem Thema Meinungsfreiheit und Desinformation auseinandersetzt. Und das Thema gewinnt dann an zusätzlicher Komplexität, wenn man berücksichtigt, dass im Zeitalter der Digitalisierung Menschen über Ländergrenzen hinweg Informationen verbreiten und millionenfach teilen können – und das sogar ganz anonym.

Eines vorweg: Die Meinungsfreiheit des Einzelnen muss im Zentrum aller Überlegungen zur Gestaltung und Sicherung eines funktionierenden Meinungsbildungsprozesses stehen. Nicht erst seit dem Ausbruch der COVID-19-Pandemie und der zentralen Rolle, die digitale Plattformen und soziale Netzwerke in der Vorwahlzeit der letzten US-Präsidentschaftswahl eingenommen haben, werden diverse unter dem Sammelbegriff der „Desinformation“ gefassten Phänomene und mögliche Reaktionen auf diese diskutiert. Und doch sind es gerade Vorwahlzeiten, in denen demokratische Gesellschaften noch mehr als sonst auf funktionierende, faire und chancengleiche Meinungsbildung angewiesen sind.

Die dafür erforderlichen Diskussions- und Argumentationsprozesse verlagern sich seit Jahren mehr und mehr in digitale und damit technisch unterstützte Räume. Damit gehen fast zwangsläufig veränderte Kommunikationsweisen sowie technische Verbreitungs- und Manipulationsmöglichkeiten einher, die wiederum zu einer Diskussion über Verantwortlichkeiten führen.

 

Die Rolle der Plattformen

Wer für die Inhalte auf Onlineplattformen verantwortlich ist, ist dabei keine ganz einfache Frage. Naheliegend scheint zunächst die Anknüpfung am Autor der Inhalte als demjenigen, der potenziell rechtswidrige oder desinformierende Beiträge öffentlich macht oder sich manipulativer Techniken – etwa zur Reichweitenvergrößerung – bedient. Doch auch die Betreiber der Plattformen kommen als Verantwortliche in Betracht, da sie mit ihrer Infrastruktur erst die Möglichkeit der großen Reichweite für jedermann schaffen. Zudem sind diese häufig einfacher bzw. überhaupt identifizier- und adressierbar.

Die Anbieter sozialer Netzwerke sind die Hauptprofiteure der Verlagerung der öffentlichen Meinungsbildung in den digitalen Raum. Dementsprechend haben vor allem diese ein Interesse am Ausgang der Diskussionen über veränderte Verantwortlichkeiten. Auf ihre Verantwortung für den Meinungsbildungsprozess wird bereits seit Jahren hingewiesen, diverse Regelungen auf europäischer und nationaler Ebene wurden etabliert. Unter anderem in Reaktion darauf haben viele Anbieter Grundzüge von Strategien gegen Hassrede, aber auch gegen verschiedene Formen der Desinformation in ihren Hausregeln etabliert.Dies allein führt aber mangels plattformseitiger Durchsetzung einerseits und mangels Grundlagen für eine regulierungsseitige Durchsetzung andererseits bislang nicht zu einem Rückgang der Manipulationen.

Um der neuen Verantwortlichkeit von Plattformen Rechnung zu tragen, bedarf es eines Zusammenspiels von plattformseitigen und gesetzlichen regulatorischen Maßnahmen. Aber was haben wir bislang erreicht?

Desinformation als europäisches Thema

Wie alle Regulierungsdiskussionen, die sich auf Geschehnisse im digitalen und damit grenzüberschreitenden Raum beziehen, kann auch der Kampf gegen Desinformation nicht alleine auf nationalstaatlicher Ebene gewonnen werden. Dabei ist allerdings zu berücksichtigen, dass aufgrund der Kultur- und Medienhoheit der Mitgliedstaaten die Europäische Union nur sehr limitierte Zuständigkeiten hat.

Es liegt im Wesen von Plattformen, ihr Geschäftsmodell zu schützen.

Bereits 2018 hat die Europäische Kommission mit dem Aktionsplan gegen Desinformation einen Anstoß für einen dezidierteren Auseinandersetzungsprozess mit dem Phänomen „Desinformation“ gegeben, nachdem sich die großen Plattformen verpflichtet hatten, einen selbstregulatorischen Rahmen für den Kampf gegen Desinformation zu entwickeln – den Code of Practice on Disinformation. Der Code enthält unter anderem Verpflichtungen zur Transparenz bei politischer Werbung, zur Löschung von fake accounts und zur Demonetarisierung von Verbreitern von Desinformation. Unterschrieben wurde der Code ursprünglich von Facebook, Google, Twitter und Mozilla sowie Teilen der Werbeindustrie. 2019 und 2020 folgten Microsoft und TikTok. Bei der im Code enthaltenen Selbstregulierung handelt es sich um einen ersten Schritt. Er zeigt, dass die Plattformen ihre veränderte Verantwortung sehen und bereit sind, sich dieser Verantwortung in einem gewissen Rahmen anzunehmen. Dieser erste Schritt ist aber bei Weitem nicht ausreichend, um dem Problem angemessen entgegenzutreten. Denn Selbstverpflichtungen haben zwei sehr wesentliche Nachteile: Zum einen liegt es im Wesen von Plattformen, wie dem eines jeden Wirtschaftsunternehmens, ihr Geschäftsmodell zu schützen. Hinzu kommt, dass diese Regelungen oftmals (aus Sicht der Unternehmen notwendigerweise) so offen formuliert sind, dass die Umsetzung je nach Plattform stark variieren kann. Zum anderen sind im Code keine Sanktionsmöglichkeiten vorgesehen. Natürlich besteht die Möglichkeit, die Einhaltung der Selbstverpflichtung zu überprüfen. Für eine fundierte und aussagekräftige Beurteilung der Umsetzung bedarf es allerdings einer belastbaren Datenlage, die, wie bereits die Evaluierung des Codes durch die European Regulators Group for Audiovisual Media Services (ERGA) 2020 ergeben hat, gegenwärtig nicht gegeben ist. Die Daten, die derzeit über die Self-Assessment-Reports (SAR) seitens der Plattformen zur Verfügung gestellt werden, sind durch diese bereits ausgewählt und vorsortiert – valide Aussagen zum Umsetzungsstand lassen sich dementsprechend nur in sehr eingeschränktem Maße treffen. Eine über die Überprüfung hinausgehende Möglichkeit der Beweislastumkehr oder gar der Sanktionierung einer Nichteinhaltung existiert derzeit allerdings nicht.

Die Europäische Kommission setzt nun gleich an mehreren Punkten erweiternd an. Hierzu gehört neben Guidelines für eine Überarbeitung und damit Stärkung des Codes durch die Plattformen ein Gesetz zur verbesserten Transparenz bei gesponserter, politischer Werbung. Auch der aktuell breit diskutierte Vorschlag für einen Digital Services Act, der sich im Wesentlichen mit der Rechtsdurchsetzung im Netz bei illegalen Inhalten beschäftigt, setzt wesentliche Punkte des Codes bezüglich Transparenz von Werbung regulatorisch fest. Zusätzlich sollen Plattformen zukünftig dazu verpflichtet werden, eine Risikobewertung hinsichtlich aller sich aus dem Betrieb und der Nutzung ihrer Dienste ergebenen systemischen Risiken für die Meinungsfreiheit und die vorsätzliche technische Manipulation ihrer Infrastruktur durchzuführen sowie mit entsprechenden Maßnahmen entgegenzusteuern. Ob dieser etwas flickenteppichartige Ansatz funktionieren wird, wird sich zeigen – ausreichen wird er vermutlich nicht.

 

Desinformation als nationales Thema – Information gegen Desinformation

Auch auf nationaler Ebene sind erste Schritte eines Vorgehens gegen Desinformation bereits getan. Im seit November 2020 geltenden Medien-staatsvertrag der Länder findet sich eine neue Aufsichtsstruktur bezüglich der Einhaltung journalistischer Grundsätze in bestimmten Telemedien. Neben dem Deutschen Presserat und zukünftig gegebenenfalls weiteren Institutionen der freiwilligen Selbstkontrolle sind damit auch die Landesmedienanstalten beauftragt, die Einhaltung dieser Grundsätze zu überprüfen und durchzusetzen.

Bereits der Versand erster Hinweisschreiben hat zu handfesten Erfolgen geführt. So konnte auf diesem wenig formellen Weg ein Bewusstsein für sorgfältige journalistische Arbeit geschaffen werden – einige angeschriebene Telemedienanbieter haben ihre Angebote bereits angepasst. Dort, wo das nicht der Fall ist, wurden teilweise Aufsichtsverfahren eingeleitet. Dies sind zweifelsfrei nur erste Schritte und es stehen sicherlich auch langwierige Verfahren an, denn in der Breite sichtbare Ergebnisse erfordern Ausdauer und Beharrlichkeit. Doch beides haben die Medienanstalten nicht nur einmal bewiesen.

Mit der Überprüfung der Einhaltung der journalistischen Sorgfalt setzt die Medienregulierung an einem grundlegenden Punkt der Meinungsbildung an. Wer das Vertrauen der Nutzerinnen und Nutzer in den Journalismus nutzt und sein Angebot entsprechend vertrauenserweckend gestaltet, muss der damit einhergehenden Verantwortung auch gerecht werden und handwerklich sauber arbeiten. Die Benennung von Quellen, der richtige Umgang mit Zitaten und eine sorgfältige Recherche führen zu einer größeren Verlässlichkeit von Informationsangeboten und damit – neben dem direkten Effekt der Sanktionierung von Verstößen – auch zu einem Gegengewicht: Denn Information ist eines der besten Mittel gegen Desinformation.

Dem folgt auch der Gedanke der leichten Auffindbarkeit, der ebenfalls im Medienstaatsvertrag Niederschlag gefunden hat. Ab September 2021 müssen Angebote, die in besonderem Maße zur Meinungsbildung in der Bundesrepublik beitragen, in Benutzeroberflächen leicht auffindbar bereitgehalten werden. Kriterien hierfür sind etwa ein hoher Anteil nachrichtlicher Berichterstattung, regionaler und lokaler Informationen sowie ein überwiegender Anteil professioneller und ausgebildeter Journalisten bei der Erstellung der Programminhalte. Wenn so hergestellte Informationsangebote durch die Nutzerinnen und Nutzer schnell und einfach gefunden werden können, haben Äußerungen mit desinformierender Absicht es deutlich schwerer, durchzudringen. Damit die Idee der Information gegen Desinformation bestmöglich wirken kann, ist es von großer Bedeutung, die Medienkompetenz der Gesellschaft weiter zu stärken und zu fördern.

 

Instrumente gegen Desinformation

Aber was braucht es über die bisherigen Ansätze hinaus, um die Gefahr vor Desinformationen zu mindern und gleichzeitig die Meinungsfreiheit und den Meinungsbildungsprozess zu schützen? Mit der eingangs skizzierten Erweiterung und auch teilweisen Verlagerung des Meinungsbildungsprozesses in digitale Sphären wird der Wandel keineswegs abgeschlossen sein. Der derzeitige Stand der Diskussionen zeigt aber, dass er diesen konkreten Entwicklungen stets hinterhereilt. Umso wichtiger ist es, Desinformation nicht nur in ihrer sich jeweils zeigenden Form zu begegnen, sondern ein Regelungsumfeld zu schaffen, das abstrakte Mechanismen enthält.

Vieles, was unangenehm ist, kann und muss ausgehalten werden.

Grundsatz eines solchen Ansatzes muss es sein, Meinungsäußerungen vor allem unabhängig von ihrem Inhalt zu behandeln. Auch sollen sämtliche Beiträge so lange wie möglich im öffentlichen Diskurs verbleiben. Die Meinungsfreiheit ist ein hohes Gut demokratischer Gesellschaften. Grundsätzlich muss jeder Versuch unternommen werden, den Meinungsbildungsprozess zu stützen, nicht aber in ihn einzugreifen. Daraus folgt: Vieles, was unangenehm ist, kann und muss ausgehalten werden. Maßnahmen im Bereich des Schutzes von Meinungsfreiheit und Meinungsbildung setzen immer ein Zusammenspiel von Medienkompetenz fördernden Projekten und gesetzlich festgelegten Rahmenregelungen voraus. Nur dort, wo der Meinungsbildungsprozess selbst die ihn beeinträchtigenden Einflüsse nicht zu steuern vermag, muss Regulierung dies durch einen unterstützenden Rahmen wieder ermöglichen.

Ein Beispiel für eine solche Unterstützung sind Transparenzvorschriften. Sie können unabhängig vom Inhalt einer Meinungsäußerung etabliert und kontrolliert werden. Transparenz kann Informationsdefizite beseitigen, ohne die Inhalte selbst zu verändern. So kann auch erreicht werden, dass bestimmte Verhaltensweisen – wie der verdeckte Kauf von Followern oder Likes – unattraktiv werden. Ein Beitrag, der häufig angezeigt wird, aber einen Hinweis der künstlich erhöhten Reichweite sichtbar mit sich trägt, hat ein deutlich herabgesetztes Manipulationspotenzial.

Ultima Ratio bleiben müssen Eingriffe, die bestimmte Formen der Meinungsäußerung unterbinden.

Transparenz schafft aber auch Grundlagen eines Diskussionsprozesses: Eine identische Informationslage bei allen Diskursteilnehmern ermöglicht diesen die korrekte Einordnung eines Beitrags. Dies kann etwa bei Personen zum Tragen kommen, die beispielsweise aufgrund einer herausgehobenen gesellschaftlichen Position einen höheren Einfluss auf die öffentliche Meinungsbildung haben. Bereits wenn diese Tatsache transparent gemacht wird, fällt die Einordnung einer Meinungsäußerung deutlich leichter – ein Vorteil, der allen zur Verfügung stehen sollte. Übrigens bedeutet das keineswegs ein Ende anonymer oder pseudonymer Onlinekommunikation: Wer verdeckt kommuniziert, kann ohnehin nicht von seiner gesellschaftlichen Position profitieren.

Ein weiteres Instrument gegen Desinformation stellen Sorgfaltspflichten dar. Sie gelten in Form der Pflicht zur Beachtung der journalistischen Grundsätze – wie oben dargestellt – bereits heute für Rundfunk und journalistisch gestaltete Telemedien und werden von den Landesmedienanstalten und Selbstkontrolleinrichtungen, wie dem Deutschen Presserat, kontrolliert. Sorgfaltspflichten zielen lediglich indirekt auf das Ergebnis der Beschaffung, Aggregation und Darstellung von Informationen ab und nehmen das bei der Erstellung von Nachrichten und Meinungsäußerungen zugrunde gelegte Handwerk in den Blick. Sie sind somit – wie auch Transparenzvorschriften – als inhaltsneutral anzusehen. Das Instrument der Sorgfaltspflichten kann sowohl im Umfang seiner Anwendung als auch mit Blick auf die durch sie adressierten Teilnehmer am Meinungsbildungsprozess flexibel gehandhabt und verhältnismäßig ausgestaltet werden.

Ultima Ratio bleiben müssen Eingriffe, die bestimmte Formen der Meinungsäußerung unterbinden. Die Untersagung kommt ohnehin nur dann in Betracht, wenn die zuvor genannten Verpflichtungen nicht ausreichen. Etwa, wenn durch Missbrauch der technischen Infrastruktur der Plattformen einem Beitrag eine Sichtbarkeit zukommt, die sich so nicht in der öffentlichen Diskussion widerspiegelt und die damit lediglich dazu dient, die öffentliche Meinungsbildung zu verzerren.

Bei der Aufsicht über zukünftige Regelungen in diesem Bereich sollte zudem auf die Erfahrungen der ERGA aus der oben beschriebenen Überprüfung der Verpflichtungen aus dem Code zurückgegriffen werden: Dem bereits angesprochenen fehlenden Datenzugang, der eine Überprüfung des Codes effektiv möglich machen würde, könnte auch mit einer Beweislastumkehr abgeholfen werden. Wenn Regulierer systemische Fehler feststellen, melden sie diese an den Plattformbetreiber, der dann verpflichtet ist zu beweisen, dass kein Verstoß vorliegt. Dies würde neben Personaleinsparungen bei den Betreibern wie den Regulierern auch ein strukturelles Problem lösen. Denn die Plattformen können kaum beurteilen, welche Daten für eine Gesamtevaluierung der Regulierer notwendig sind. Die Regulierer aber können mangels Einsicht in die Unternehmensstrukturen nicht genau definieren, welche Daten sie für ihre Arbeit tatsächlich benötigen. Zusätzlich zu diesen Instrumenten fordert die ERGA im Falle der Einführung einer regelmäßigen Überprüfung der Umsetzung des Codes die Schaffung der Möglichkeit einer formellen öffentlichen Rüge durch die Medienregulierer oder die ERGA selbst, um angemessen auf Defizite hinweisen zu können.

 

Ein abgestufter Regulierungsansatz

Die beschriebenen Gruppen von Instrumenten und die Zuordnung verschiedener unter dem Begriff der Desinformation verstandener Phänomene ermöglichen insgesamt die inhaltsneutrale Betrachtung und passgenaue, verhältnismäßige und abgestufte Reaktion. Hervorzuheben ist, dass sie auch die schwierige Bewertung von Aussagen als wahr oder unwahr, falsch oder richtig, die hochgradig subjektiv ist, vermeiden. Vor dem Hintergrund, dass die Meinungsfreiheit jegliche Aussage schützt, solange sie nicht die Grenze zur Strafbarkeit überschreitet, bleiben diese subjektiven Maßstäbe für eine objektive Regulierung außer Betracht. Der abgestufte Regulierungsansatz hält Maßnahmen bereit, die sowohl die Autoren der Inhalte als auch die Kommunikationsplattformen betreffen. Er trägt damit zu einer angemessenen Verteilung der Verantwortlichkeiten zwischen diesen beiden am Kommunikations- und Meinungsbildungsprozess maßgeblich Beteiligten bei und setzt den Rahmen für gesellschaftlichen Diskurs unter den gar nicht mehr so neuen Bedingungen.

 


 

Dr. Tobias Schmid ist Direktor der Landesanstalt für Medien NRW. Er ist darüber hinaus Europabeauftragter der Direktorenkonferenz der Landesmedienanstalten (DLM) und Vorsitzender der European Regulators Group for Audiovisual Media Services (ERGA), dem Verbund der nationalen Medienregulierungen in Europa.

 

Desinformation – Kategorien, Akteure, Gegenstrategien

Desinformation hat oft einen politischen Hintergrund und zielt darauf ab, gesellschaftliche Debatten zu manipulieren oder das Ansehen einer Person oder einer Institution herabzusetzen. Mit gesteuerten Kampagnen versuchen vor allem Akteure aus autoritären Staaten, politisch Einfluss zu nehmen, die demokratische Debatte zu untergraben und die gesellschaftliche Polarisierung zu verschärfen. Dazu kommt, dass autoritär regierte Staaten vom digitalen Wandel zu profitieren scheinen, da sie die Daten ihrer Bürgerinnen und Bürger nutzen, um diese zu kontrollieren und zu manipulieren. Der in der analogen Welt geltende Rechtskanon von Menschenrechten, Urheberrechten und Datenschutz muss daher auch im digitalen Raum immer wieder verteidigt werden.

Dieser Systemwettbewerb manifestiert sich gerade im Umfeld entscheidender Wahlen: Durch gezielte Desinformationskampagnen wird versucht, das Meinungsklima zu beeinflussen. Deutschland und die Mitgliedstaaten der EU sind in der Pflicht, ihre offenen Demokratien vor solchen Einflussnahmen zu schützen. Daher ist es neben den schon bestehenden Gesetzesinitiativen und Taskforces wichtig, die Bevölkerung bestmöglich darüber aufzuklären und sie resilient dagegen zu machen. Denn nur, wenn man versteht, wie beispielsweise die Nachrichtenvermittlung auf den Plattformen abläuft, kann man Desinformation besser erkennen und sich davor schützen. Mit Regulierung direkt gegen Desinformation vorzugehen, ist ein schmaler Grat: Ein „Gesetz gegen Desinformation“, das bei uns gegen Desinformation als Schutz für die Meinungsfreiheit verfasst wird, könnte in autoritären Staaten zur Unterdrückung und zur Einschränkung der Meinungsfreiheit „umfunktioniert“ werden, indem die Deutungshoheit über belastbare Fakten und manipulative Falschnachrichten ausgenutzt wird. Insofern sollten freiheitliche Demokratien die potenziellen Regulierungsansätze transparent und so unmissverständlich formulieren, dass sie von ausländischen autoritären Akteuren oder aber auch im Fall ungünstigster Änderungen der politischen Machtverhältnisse nicht zugunsten einer expliziten Beeinträchtigung der Meinungs- und Medienvielfalt auslegbar wären.

 

Welche Arten von Manipulation und Desinformation gibt es?

Fake News sind falsche oder irreführende Informationen, die in der Absicht, einer Person, Institutionen oder Organisationen zu schaden, in Umlauf gebracht werden. Es werden verschiedene Gerüchte und Falschmeldungen mit gefälschten „Beweisen“ versehen und zu einer Nachricht zusammengefasst. Entsprechende Beiträge von anderen Usern fließen in die vermeintliche „Beweiskette“ mit ein. So können ganze Fake Plots entstehen. Häufig werden auch Bilder einfach aus dem Zusammenhang gerissen, um so eine Geschichte gezielt zu verändern.

Deep Fakes sind eine Unterkategorie von Fake News, die die Überzeugungskraft audiovisueller Medien nutzen, um ihre manipulierende Wirkung zu erzielen. Es handelt sich hierbei um elektronisch modifizierte Bewegtbilder oder Fotos, die Personen und Ereignisse verändern oder simulieren.

Social Bots sind maschinell gesteuerte und programmierte Profile in sozialen Netzwerken. Sie geben vor, normale menschliche Nutzer zu sein, haben also meist ein Foto und einen erfundenen Namen. Ihr Ziel ist die Beeinflussung der sozialen Interaktion und der Meinungsbildung in sozialen Netzwerken durch das massenhafte Weiterleiten von Fake News.

Trolle sind menschliche User. Sie versuchen in sozialen Netzwerken gezielt Diskussionen zu stören oder zu unterbrechen. Trolle versuchen andere User als Trolle zu diffamieren, polarisieren und provozieren.

 

Wer sind die Täter und was sind die Motive?

Oft hat Desinformation einen politischen Hintergrund. Sie wird entweder direkt von staatlichen oder nichtstaatlichen Akteuren organisiert. In Ländern ohne stabile demokratische Verhältnisse können beispielsweise Inhalte auch von den staatlich gelenkten Medien weiterverbreitet und so verstärkt werden.

Auch Unterhaltung (im negativen Sinn) und Aufmerksamkeit können Motive sein. Bewusste Provokationen, die uns ärgern und herausfordern sollen, sind leider seit Langem ein Kennzeichen der sogenannten Onlinekultur. Meist haben diese Kampagnen aber auch ein inhaltliches politisches Ziel. Das Vehikel hierfür – oft über Memes oder Deep Fakes – ist eben die Unterhaltung.

Zuletzt kann auch Werbung ein finanzielles Motiv für Desinformationskampagnen sein. Diese Kampagnen zielen darauf ab, möglichst viel Datenverkehr zu generieren. So versuchen sie, durch manipulierte Inhalte zu höheren Zahlen von Klicks auf ihre Werbeanzeigen zu kommen. Hier werden politisch emotionale Themen oft als Aufhänger genutzt.

 

Was befördert die Wirkung von Desinformation?

Desinformationskampagnen werden also von verschiedenen Täterkreisen und mit unterschiedlicher Motivation begangen. Der Nährboden ist aber überall gleich:

 

  • steigende Bedeutung von sozialen Medien als Quelle von Nachrichten
  • eine polarisierte politische Landschaft
  • wenig Vertrauen in die klassischen Medien

Emotionale Reizthemen haben gutes Potenzial, viral zu gehen. Um möglichst echt zu wirken, werden falsche Quellen zitiert oder sogar Logos von Medien missbraucht.

 

Was kann die Zivilgesellschaft dagegen tun?

Digitale Desinformation ist eine Bedrohung, die bleibt. Sie wird sich mit dem digitalen Wandel auch weiterentwickeln. Nachrichten-, Recherche- und Informationskompetenz muss für alle Altersstufen der Bevölkerung ausgebaut werden. Des Weiteren können durch systematische Aufklärung staatliche Einrichtungen, Behörden und insbesondere Journalisten bei ihrer Berichterstattung dazu beitragen, auf das Phänomen „Desinformation“ hinzuweisen und dagegen vorzugehen.

Eigenverantwortung kann jeder und jede einzelne gegen die Weiterverbreitung von Fake News übernehmen: Wenn die Quelle einer Nachricht unbekannt oder nicht nachzuvollziehen ist, spricht einiges dafür, dass es sich hier um Fake News handelt. Auch sprachliche Ungenauigkeiten sind oft ein Merkmal für Desinformation.

Was Hoffnung macht: Qualitätsjournalismus ist ein Produkt, das die Nutzer immer mehr im Internet nachfragen. Hier liegt eine große Chance für die Anbieter von Zeitungen oder Rundfunk, verlässliche Informationen sichtbar auch im Netz anzubieten. Hierfür müssten die rechtlichen Möglichkeiten bezüglich der Auffindbarkeit entsprechend angepasst werden.

 


 

Daphne Wolter ist Referentin für Globale Gesundheit der Konrad-Adenauer-Stiftung.


 

Für eine vollständige Version dieses Beitrags inkl. Quellenverweisen wählen Sie bitte das PDF-Format.
Ansprechpartner

Dr. Sören Soika

Dr

Chefredakteur Auslandsinformationen (Ai)

soeren.soika@kas.de +49 30 26996 3388
Ansprechpartner

Fabian Wagener

Fabian Wagener

Multimediareferent

fabian.wagener@kas.de +49 30-26996-3943