Asset-Herausgeber

Politsnack

Risiken generativer KI für unsere freiheitlich demokratische Gesellschaft

Risiken generativer KI für unsere freiheitlich demokratische Gesellschaft

Dank der Veröffentlichung von ChatGPT sind sog. generative KI-Anwendungen in aller Munde. Während das textbasierte ChatGPT menschliche und maschinelle Sprachfähigkeit überzeugend imitiert, können andere Programme realistische Bilder, Videos und Tonspuren erstellen. Diese Funktionalitäten beeindrucken. Zugleich sind sie vielfach sehr leicht und zu geringen Kosten verfügbar. Was zunächst nach Spielerei und positiven Potenzialen klingt, birgt zugleich erhebliche Risiken. 

Asset-Herausgeber

Dank der Veröffentlichung von ChatGPT sind sog. generative KI-Anwendungen in aller Munde. Während das textbasierte ChatGPT menschliche und maschinelle Sprachfähigkeit überzeugend imitiert, können andere Programme realistische Bilder, Videos und Tonspuren erstellen. Diese Funktionalitäten beeindrucken. Zugleich sind sie vielfach sehr leicht und zu geringen Kosten verfügbar. Was zunächst nach Spielerei und positiven Potenzialen klingt, birgt zugleich erhebliche Risiken.

Fake News on Steroids – Mehr, personalisierter und überzeugender

Schon kurz nach der Veröffentlichung von ChatGPT haben Experten gewarnt und nachgewiesen, dass die neueste Generation an generativer KI für die Erstellung von besonders überzeugenden, stark personalisierten Fake News sowie sog. Deep Fakes missbraucht werden kann. Nur wenige Monate später können wir beobachten, wie KI-generierte Bilder von AfD-Abgeordneten zur Hetze gegen Flüchtlinge verwendet werden, Bilder eines gewaltsam verhafteten Donald Trump mit Aufrufen zur Mobilisierung ebenso im Netz kursieren wie manipulierte Videos einer vermeintlich betrunkenen US-Vizepräsidentin oder gar verleumderische pornografische Deep Fakes indischer Politikerinnen. Zwar gibt es bereits Gegenmaßnahmen, um die Verbreitung solcher Fakes (Upload-Filter) einzudämmen und Deepfakes zu erkennen (z.B. Labelling durch Wasserzeichen / Factchecking-Netzwerke). Ob diese ausreichen, kann angesichts der Verfügbarkeit von Anwendungen und Möglichkeiten sowie ressourcenstarken Akteuren mit Interesse an der Herstellung und Verbreitung von Fake News allerdings bezweifelt werden.

Generative KI als Superspreader – Overreliance und unbedachte Nutzung

Dank generativer KI können Fake News nicht nur kostengünstiger und zielgenauer erstellt werden. Sie können über zunehmend populärere Chatbots ebenso leicht verbreitet werden. Experimente haben bereits nachgewiesen, dass Chatbots bei bestimmten Fragen in sehr eloquenter Sprache Desinformationen und Verschwörungstheorien als Antworten ausgeben können. Dies ist umso problematischer, da zum einen Verschwörungstheorien und emotionalisierende Desinformationen von Nutzern häufiger mit einem Feedback versehen werden als sachlich richtige Informationen. Zum anderen können Chatbots aus dem Nutzerfeedback weiter lernen, so dass eine Art Verstärkereffekt zugunsten von Falschinformationen eintreten kann. Dass solche Anwendungen neben Desinformationen auch negative und diskriminierende Stereotype, von denen gerade Frauen und gesellschaftlich schwache Gruppen betroffen sind, reproduzieren, macht dieses Risiko nochmals virulenter.

Generative KI als generelles Werkzeug böswilliger Akteure

Mittels generativer KI können aber nicht nur personalisiertere Fake News oder gar Deepfakes erstellt werden. Es ist ebenso möglich, sehr viel bessere Phishing Mails zu erstellen, kompromittierendes Bild und Fotomaterial zu generieren oder gar ganze Identitäten Anderer vorzutäuschen. Mit diesen Möglichkeiten können Hacker noch leichter Wege finden, um in Systeme einzudringen oder sie lahmzulegen. Cyberkriminellen wiederum bieten sich Möglichkeiten, um Opfer mit neuen betrügerischen Maschen in Fallen zu locken. Ein weiteres bereits heute hoch aktuelles Phänomen sind sog. Deepfakeporn-Attacken, bei denen über leicht zugängliche KI-Anwendungen, non-konsensual pornografisches Material von Frauen, teils gar von Minderjährigen, generiert und online gestellt wird. Diese können massive soziale und psychische Schäden bei Opfern anrichten und lassen sich faktisch kaum aus dem Internet entfernen.

Der düstere Arbeitsmarkt der Zukunft – Überforderung statt Massenarbeitslosigkeit

Auch wenn immer wieder düstere Zukunftsbilder einer Massenarbeitslosigkeit gezeichnet werden, wird auch dank generativer Künstlicher Intelligenz kein Mangel an Arbeit entstehen. Dies liegt zum einen am demografischen Wandel, der viel eher zu einem umfassenden Fachkräftemangel führt. Zum anderen aber auch daran, dass KI eher dazu eingesetzt wird, menschliche Arbeit zu ergänzen. Dies führt dazu, dass sich in den meisten Fällen eher die mit einem Beruf verbundenen Tätigkeiten (langsam) verschieben und verändern, nicht jedoch der Beruf als solches wegfällt. Kein Problem also könnte man meinen.

Betrachtet man diese Veränderung eingehender, zeigt sich in vielen Anwendungsfällen allerdings, dass im Zuge der viel beschworenen Effektivitätssteigerungen oftmals routinisierte, einfachere Tätigkeiten von Berufsbildern entfallen. Übrig bleiben dann vor allem jene Tätigkeiten eines Berufs, die ein besonders hohes Maß an Kreativität, Lösungs- und Beurteilungsfähigkeit oder auch Empathie sowie Orientierungsvermögen unter Unsicherheit erfordern. Was für die Einen Entlastung von nervtötenden Routinen und Erleichterung der Arbeit ist, bedeutet für Andere höhere Jobanforderungen, mehr Belastung und damit auch die Gefahr von Überlastung. In der Arbeitswelt der Zukunft wird es also nicht nur darum gehen, den Mehrwert von gestiegener Effektivität menschlicher Arbeit gerecht zu verteilenoder Bildungssystem zu etablieren, in denen Menschen sich lebenslang für die Veränderungen des Arbeitsmarktes wappnen können. Es wird ebenso darum gehen ein Mehr an guter Arbeit zu erstreiten, das sich keineswegs von allein einstellen wird.

Kleines Fazit

Fake News, unbedachte und missbräuchliche Nutzung sowie risikobehaftete Veränderungen des Arbeitsmarktes sind einige zentrale Risiken generativer KI. Keineswegs sind es aber die einzigen Risiken. Finden sich diese doch ebenso beim Blick auf Nachhaltigkeitsfragen und den enormen Energiebedarf generativer KI, Möglichkeiten der Blockade des politischen Systems oder der viel tiefgreifenderen Frage, was diese Systeme für unser Vertrauen in die Wirklichkeit unserer Welt bedeuten. Nimmt man all dies nüchtern wahr, fällt man zwar nicht gleich apokalyptischen Untergangszenarien anheim, die teils ja selbst aus der TechCommunity befeuert werden. Wohl aber wird einem bewusst, dass die allzu paradiesischen Technikutopien genau das sind: Utopien.  

Über den Autor

Sebastian Weise verantwortet in der Hauptabteilung Analyse und Beratung der Konrad-Adenauer-Stiftung die Stelle Digitale Demokratie. In dieser Funktion ist er Experte und Ansprechpartner sowohl für den Bereich Digitalisierung von Staat und Verwaltung als auch Digitalisierung politischer Parteien.

Asset-Herausgeber

comment-portlet

Asset-Herausgeber

Über diese Reihe

Rund um die Themen Kommunikation, Kampagnenmanagement und Digitale Strategie gibt der Blog Einblicke in aktuelle Trends der Politischen Kommunikation. Kommunikationsexpertinnen und -experten geben innovative, praktische Tipps für die politische Kampagne und für die Umsetzung.

Saskia Gamradt

Saskia Gamradt

Politische Kommunikation

saskia.gamradt@kas.de +49 30 26996-3252

Daniel Feldhaus

Daniel Feldhaus bild

Politische Kommunikation

daniel.feldhaus@kas.de +49 30 26996-3806