Soryn, stock.adobe.com

Analyses et Arguments

Deep Fake: Gefahren, Herausforderungen und Lösungswege

Nicht nur Textnachrichten und Fotos lassen sich fälschen. Mit Hilfe von Künstlicher Intelligenz sind auch Videos manipulierbar, und zwar so, dass Wahrheit und Täuschung nicht mehr ohne weiteres unterschieden werden können. Dies hat weitreichende Folgen für Gesellschaft und Politik. Technische und gesetzgeberische Maßnahmen sind notwendig, um dieser negativen Entwicklung entgegen zu steuern.
  • Noch mehr als Fake News können manipulierte Videos, sogenannte Deep Fakes, gefährliche Auswirkungen auf Gesellschaft und Demokratie haben.
  • Die Produktion von Deep Fakes gelingt mit Methoden der Künstlichen Intelligenz, sogenannten Neuronalen Netzwerken mit Deep Learning.
  • Eine Gegenstrategie kann das Dokumentieren von Quellen und Verbreitungswegen von Videos sein. Insbesondere „digitale Wasserzeichen“ oder auch die Blockchain-Technologie können dabei eine Rolle spielen.
  • Es gibt Handlungsbedarf in juristischer Hinsicht. Bislang gibt es in Deutschland keine ausreichenden Gesetze zum Umgang mit Deep Fakes. Es gibt sinnvolle Anwendungen der Technik, die für Deep Fakes genutzt werden, in Kunst, Wissenschaft und Bildung. Diese sollten nicht verboten sein.
  • Den klassischen Medien kommt beim Thema Deep Fake eine besondere Rolle und Verantwortung zu, was zu ihrer Stärkung beitragen könnte.

partager

À propos de cette série

Cette série informe de manière concentrée sur les positions importantes de la Fondation Konrad-Adenauer sur les questions d'actualité. Les différents numéros présentent les principales conclusions et recommandations, offrent de brèves analyses, expliquent les projets futurs de la Fondation et désignent les personnes de contact du KAS.

Informations de commande

Éditeur

Konrad-Adenauer-Stiftung e.V.