Asset-Herausgeber

Flickr | Ars Electronica / Birgit Cakir

Wie wir eine nuancierte Haltung gegenüber künstlicher Intelligenz entwickeln

KI ist nicht mehr wegzudenken. Und die Meinungen zu ihr sind breit gefasst. Mit dem IMPACT-Rahmenwerk können wir untersuchen, wie die Menschen über KI denken.

Spätestens seit Einführung der generativen künstlichen Intelligenz ChatGPT im November 2022 ist Künstliche Intelligenz (KI) in aller Munde. Das Meinungsspektrum ist breit gefasst und reicht von unkritischem Hype bis zu Untergangsszenarien. Das gilt übrigens auch für KI-Experten: Yann LeCun von Meta glaubt nicht, dass der Weltuntergang bevorstünde, die Untergangszenarien seien überzogen, während der „Godfather of AI“ Geoffrey Hinton vernehmlich vor den Gefahren warnt.

Ein Blick in die Vergangenheit zeigt, dass sich mit Einführung neuer Technologien regelmäßig moralische Panik breit gemacht hat, die dann irgendwann wieder abebbte. [1] Ich will nicht bestreiten, dass eine gewisse Portion Skepsis gegenüber KI-Technologien angebracht ist. Doch plädiere ich dafür, sich gegenüber KI eine nuancierte Haltung zu eigen zu machen und nicht vorschnell in eingeübte Reflexe zu verfallen.

Wie sich KI am Ende auf unsere Gesellschaften auswirken wird, hängt von vielen Faktoren ab. Wir sollten uns die Komplexität des Gegenstandes vergegenwärtigen, um eine ausgewogene Haltung gegenüber künstlicher Intelligenz zu entwickeln. Die brauchen wir, da uns zu große Skepsis in Deutschland noch stärker digital abhängen kann, eine wenig durchdachte Haltung gegenüber KI aber auch Gefahren birgt. Der Deepmind-Gründer Mustafa Suleyman beschreibt in seinem Buch „The Coming Wave“ eindrücklich, welche Gefahren durch KI schon heute realistisch sind.[2] Für besonders gefährlich hält Suleyman, dass man unter Zuhilfenahme von KI im Bereich des Bioengineering neue biologische Waffen erschaffen kann. Daraus könnte sehr schnell ein neues Pandemie-Szenario erwachsen. Suleyman arbeitet sich in seinem Buch sehr ausführlich an dem so genannten „Containment Problem“ ab: Dahinter verbirgt sich die Frage, wie man KI mit großem Gefahrenpotential wirksam eindämmt, ohne zugleich die positiven Folgen der Technologie im Keim zu ersticken. Viele Fachleute vermuten aus gutem Grund, dass KI zu Durchbrüchen bei der Bekämpfung des Klimawandels [3] oder der Behandlung von Krebserkrankungen führen wird [3].

Aber wie erarbeitet man sich nun eine nuancierte Haltung gegenüber KI? Ein Problem besteht darin, dass es sich bei KI um ein diffuses Konzept handelt, das relativ schwer zu erfassen ist. KI ist eine Technologie, die der Elektrizität gleich [4], bereits in sehr unterschiedlichen Bereichen Anwendung findet oder schon bald in unzähligen Produkten und Services verbaut sein wird. Es müssen also auch psychologische und sozio-technologische Aspekte berücksichtigt werden, um KI-Systeme ausgewogen und nuanciert zu bewerten. In einem wissenschaftlichen Artikel haben meine Kollegen Raian Ali, Preslav Nakov und ich das so genannte IMPACT-Rahmenwerk vorgeschlagen, um zu verstehen, warum Menschen zu einer bestimmten Einstellung gegenüber KI kommen [5,6]. Das Akronym IMPACT steht in diesem Zusammenhang für die englischsprachigen Termini „Interplay of Modality, Person, Area, Country/Culture and Transparency“. Übersetzt meint IMPACT das Zusammenspiel der Variablen Modalität, Personen-Kategorie, KI-Bereich, Kultur/Land und Transparenz. Mit Hilfe dieser Variablen kann man die Wirkung von KI einordnen (und so die nuancierte Haltung entwickeln, von der ich eben sprach).

Die einzelnen Elemente des IMPACT-Rahmenwerkes sollen im Folgenden kurz erläutert werden. Der Modalitätsbegriff spielt auf die Beschaffenheit der KI an. Für viele Menschen ist es ein Unterschied, ob es in ihrer Entscheidung liegt, die KI einzusetzen oder eben davon abzusehen. Stellen Sie sich vor, Sie betreten zum ersten Mal in Ihrem Leben ein autonom fahrendes Fahrzeug. In einem der Fahrzeuge haben Sie die Wahl, sich beim Fahren entweder völlig auf die KI zu verlassen oder sie nur in bestimmten Bereichen einzusetzen. In einem anderen Fahrzeug dürfen sie keine Entscheidungen treffen: Sie begeben sich, wenn Sie einsteigen, komplett in die Hände der KI. Wahrscheinlich würden Sie die KI positiver bewerten, die Ihnen die Entscheidung zubilligt.

Jenseits der Beschaffenheit der KI, spielen Personen-Variablen eine zentrale Rolle, um zu verstehen, ob Menschen mit einer gewissen Skepsis oder gar mit Enthusiasmus auf die neue Technologie reagieren. In einer eigenen Studie mit Teilnehmenden aus Deutschland und China beobachteten wir, dass Personen mit höheren Neurotizismus Werten der KI gegenüber eher negativ eingestellt waren als Personen mit geringeren Neurotizismus-Werten [7]. Das überrascht nicht, ist Neurotizismus doch eine Persönlichkeitseigenschaft von Menschen, die im Alltag eher negative Emotionen verspüren [8].

Jenseits von Persönlichkeitsmerkmalen spielen auch Variablen wie Alter und Geschlecht eine Rolle [9]. So haben wir in früheren, vornehmlich deutschsprachigen Stichproben beobachtet, dass Männer durchschnittlich positivere Haltungen gegenüber KI berichteten als Frauen [7,10]. Übrigens sind positive und negative Einstellungen gegenüber KI nicht unbedingt als eindimensionales Konstrukt zu verstehen [10,11]: Jemand mit einer mehr positiven Haltung ist also nicht zwangsläufig weniger negativ gegenüber KI eingestellt. Manche Menschen berichten in Anbetracht der Ungewissheiten rund um die KI sowohl eine positive als auch eine negative Haltung gegenüber KI.

Nun zur Area-Variable des IMPACT-Rahmenwerkes: Der Bereich, in dem die KI eingesetzt wird ist für ein Verständnis der Technikfolgen und für die Haltung gegenüber der KI zentral. Es ist ein Unterschied, ob sie in der Medizin zur Tumordiagnostik [12] angewendet wird oder beim Militär, um ein militärisches Ziel zu vernichten [13]. Und es differenziert sich noch mehr aus: In der Medizin und auch im Militär ist wiederum die Anwendung entscheidend: Bleiben wir beim Militär: Die KI könnte in einem Konfliktszenario auch zur Verteidigung eingesetzt werden, um beispielsweise „automatisch“ Bombenangriffe abzufangen.

„Eine KI agiert nicht im luftleeren Raum, sondern ist in kulturelle und politische Gepflogenheiten eingebettet. So unterscheiden sich Kulturen in Dimensionen wie Individualismus und Kollektivismus, d.h. wie stark Menschen ihre Interessen dem Gruppenwohl unterordnen.“

Christian Montag

Die nächste Kategorie des IMPACT-Rahmenwerk (Country/Culture) zielt auf Land und Leute ab: Eine KI agiert nicht im luftleeren Raum, sondern ist in kulturelle und politische Gepflogenheiten eingebettet. So unterscheiden sich Kulturen in Dimensionen wie Individualismus und Kollektivismus, d.h. wie stark Menschen ihre Interessen dem Gruppenwohl unterordnen. So hat sich in einer unserer Arbeiten gezeigt, dass Studienteilnehmende aus dem vornehmlich kollektivistisch geprägten China der KI gegenüber positiver eingestellt waren als die aus dem mehr individualistisch geprägten Deutschland [7]. Wobei hier auch der Einfluss der chinesischen Staatsmedien zu berücksichtigen ist. Die Kommunistische Partei Chinas setzt mit dem „New Generation Artificial Intelligence Development Plan“ stark auf die KI-Technologie [14] und hat proklamiert – genauso wie die USA – weltweit die Führung in Sachen KI anzustreben [4]. Davon ist die chinesische Berichterstattung stark beeinflusst. So ist ein öffentlicher Onlinekurs auf der chinesischen Plattform WeChat auf Linie des Parteiorgans People Daily, und die KI-Diskussionen dort fallen entsprechend positiv aus [15]. Auch die Frequenz, in der man sich über ein bestimmtes Medium informiert, kann den Diskurs über KI beeinflussen: Personen, die sich über KI-Entwicklungen besonders viel über die Tageszeitungen informierten, waren der KI gegenüber weniger aufgeschlossen [16].

Auch kulturelle Aspekte beeinflussen, wie offen Menschen sich der KI gegenüber zeigen. So wurde kürzlich in einer internationalen Stichprobe beobachtet, dass Befragte KI etwas kritischer sahen, wenn sie sich für spiritueller hielten [17]. Kulturen unterscheiden sich in der Bedeutung, die sie Spiritualität zumessen, und auch das könnte die Haltungen einer Gesellschaft gegenüber KI verändern. Noch ist das Forschungsfeld über KI-Einstellungen jung, und die hier genannten Beobachtungen sind erst ein Anfang. Dies bedeutet auch, dass die gerade gemachten Beobachtungen von anderen Arbeitsgruppen weiterhin untersucht werden müssen.

Nun zum letzten Element des IMPACT-Rahmenwerks: Das T steht für Transparenz. Gemeint ist damit, wie transparent etwa der der KI zugrunde liegende Code ist, und wie frei verfügbar Entwickler und Entwicklerinnen ihn nutzen können. Im Kontext der Transparenz würde ich auch das XAI-Konzept ansiedeln [18] – die Abkürzung steht für „eXplainable AI“. Man geht davon aus, dass eine KI, die den Nutzenden Erklärungen anbietet – etwa wie sie zu einem Ergebnis kommt – mehr Vertrauen erzeugt. KI-Modelle zeichnen sich häufig durch einen Black-Box-Charakter aus: Es ist für die Nutzer häufig nicht nachvollziehbar, wie eine KI zu dem Schluss kommt, auf dem CT-Bild sei ein Tumor zu sehen, oder warum für eine Versicherungspolice ein bestimmter Betrag zu zahlen sei. Die Risikoeinstufung ist von einer KI vorgenommen worden. Übrigens kann man Transparenz der KI durchaus auch als Modalität der KI sehen. Wir hielten den T-Faktor für schlichtweg so wichtig, dass wir eine eigene Kategorie in unserem Modell vorsehen wollten.

Das IMPACT-Rahmenwerk erhebt keinen Anspruch auf Vollständigkeit. Aber unter Zuhilfenahme dieses eingängigen Akronyms kann man seine Haltung gegenüber KI nachjustieren. IMPACT berücksichtigt sowohl psychologische Faktoren wie die eigene Persönlichkeit als auch soziotechnologische Faktoren. Doch sich die eingangs angesprochene nuancierte Haltung gegenüber KI zu eigen zu machen, ist noch etwas komplexer.

Die einzelnen Elemente des IMPACT-Rahmenwerks sind nicht isoliert zu betrachten: Sie sollten deswegen in einem dynamischen Zwischenspiel betrachtet werden. So ist XAI nicht für jeden Menschen gleichermaßen bedeutsam – auch hier spielen wahrscheinlich Persönlichkeitseigenschaften eine Rolle. Der XAI-Faktor wird also je nach persönlicher Neigung unterschiedlich zu gewichten sein, so wie er auch je nach Produkt oder Service unterschiedlich ausfallen mag.

Wir stehen vor einer KI-Welle, einer technischen Revolution unbekannten Ausmaßes. Wir sind darauf angewiesen zu erfahren, wie Gesellschaften über KI denken und über was für einen Wissensstand sie tatsächlich verfügen. Die öffentliche Meinung wird jenseits der politischer Regulierungen – wie dem EU-AI-Act – mit darüber entscheiden, wie und in welchem Umfang KI-Technologien im Alltag implementiert werden.

Mit der öffentlichen Meinung kann man aber auch Druck aufbauen und so Einfluss auf Regulierungsmaßnahmen nehmen. Daher halte ich es für wichtig, nicht nur die Forschungsförderung, die die KI-Entwicklung vorantreibt, in den Blick zu nehmen. Es braucht auch maßgebliche Forschungsmittel, um die Einstellungsforschung rund um KI langfristig in repräsentativen Panels zu verankern [19]. Gleiches gilt auch für die Entwicklung und den Einsatz von Testverfahren, die das objektive Wissen über KI erfassen (AI Literacy). Die daraus resultierenden Erkenntnisse werden politischen Entscheidungsträgern und Entscheidungsträgerinnen wertvolle Hilfe sein, um den Transit von einer Prä-KI- hin zu einer KI-Gesellschaft möglichst geräuschlos zu begleiten und die Bevölkerung, da wo es nötig ist, über die Gefahren und Chancen aufzuklären. Das Thema KI sollte auch schon bald in den Bildungskanon von Schulen aufgenommen werden. Aufsehen erregend sind in diesem Zusammenhang auch die neuen Maßnahmen, die die Regierung in Singapur vornimmt: Um die Bürger und Bürgerinnen Singapurs fit für die KI-Revolution zu machen, werden finanzielle Mittel locker gemacht, um ab 40 Jährige erneut an die Hochschulen zu schicken [20].

Fazit: Mit einer nuancierten Haltung kann es uns gelingen, von der KI-Revolution zu profitieren und die mit ihr einhergehenden Gefahren zu minimieren. Das hier vorgestellte IMPACT-Rahmenwerk ist vielleicht noch nicht vollständig, aber es ist ein Anfang – auf einem Weg, der vor uns liegt und den zu verlassen, nicht mehr in unserer Macht liegt.

privat

Dr. Christian Montag, geboren 1977 in Köln, ist seit 2014 Professor für Molekulare Psychologie an der Universität Ulm. Er forscht unter anderem über die Auswirkungen der Digitalisierung auf die Neurobiologie und Psyche des Menschen. Zudem ist er Autor des Buches „DU GEHÖRST UNS!“ (Blessing) über die Schattenseiten des Datengeschäftsmodell hinter Social-Media-Angeboten. Mehr Informationen finden sich unter christianmontag.de 

 

Referenzen:

1. Orben A. The Sisyphean Cycle of Technology Panics. Perspect Psychol Sci. 2020;15:1143–57.
2. Suleyman M, Bhaskar M. The Coming Wave: Technology, Power, and the Twenty-first Century’s Greatest Dilemma. New York: Crown; 2023.
3. Cowls J, Tsamados A, Taddeo M, Floridi L. The AI gambit: leveraging artificial intelligence to combat climate change—opportunities, challenges, and recommendations. AI & Soc [Internet]. 2023 [cited 2023 Aug 28];38:283–307. Available from: https://doi.org/10.1007/s00146-021-01294-x
4. Lee K-F. AI Superpowers: China, Silicon Valley, and the New World Order. Houghton Mifflin Harcourt; 2018.
5. Montag C, Nakov P, Ali R. Considering the IMPACT framework to understand the AI-well-being-complex from an interdisciplinary perspective. Telematics and Informatics Reports [Internet]. 2024 [cited 2024 Feb 5];13:100112. Available from: https://www.sciencedirect.com/science/article/pii/S2772503023000725
6. Montag C, Ali R, Al-Thani D, Hall BJ. On artificial intelligence and global mental health. Asian Journal of Psychiatry [Internet]. 2024 [cited 2024 Feb 5];91:103855. Available from: https://www.sciencedirect.com/science/article/pii/S1876201823004124
7. Sindermann C, Yang H, Elhai JD, Yang S, Quan L, Li M, et al. Acceptance and Fear of Artificial Intelligence: associations with personality in a German and a Chinese sample. Discov Psychol [Internet]. 2022 [cited 2023 Mar 29];2:8. Available from: https://doi.org/10.1007/s44202-022-00020-y
8. Marengo D, Davis KL, Gradwohl GÖ, Montag C. A meta-analysis on individual differences in primary emotional systems and Big Five personality traits. Scientific Reports [Internet]. 2021 [cited 2021 May 10];11:7453. Available from: https://www.nature.com/articles/s41598-021-84366-8
9. Grassini S, Ree A. Hope or Doom AI-ttitude? Examining the Impact of Gender, Age, and Cultural Differences on the Envisioned Future Impact of Artificial Intelligence on Humankind. 2023.
10. Sindermann C, Sha P, Zhou M, Wernicke J, Schmitt HS, Li M, et al. Assessing the Attitude Towards Artificial Intelligence: Introduction of a Short Measure in German, Chinese, and English Language. Künstl Intell [Internet]. 2021 [cited 2022 Jan 22];35:109–18. Available from: https://doi.org/10.1007/s13218-020-00689-0
11. Schepman A, Rodway P. Initial validation of the general attitudes towards Artificial Intelligence Scale. Computers in Human Behavior Reports [Internet]. 2020 [cited 2023 Mar 29];1:100014. Available from: https://www.sciencedirect.com/science/article/pii/S2451958820300142
12. Raghavendra U, Gudigar A, Paul A, Goutham TS, Inamdar MA, Hegde A, et al. Brain tumor detection and screening using artificial intelligence techniques: Current trends and future perspectives. Computers in Biology and Medicine [Internet]. 2023 [cited 2023 Jul 17];163:107063. Available from: https://www.sciencedirect.com/science/article/pii/S0010482523005280
13. Hadlington L, Binder J, Gardner S, Karanika-Murray M, Knight S. The use of artificial intelligence in a military context: development of the attitudes toward AI in defense (AAID) scale. Front Psychol [Internet]. 2023 [cited 2023 Aug 3];14:1164810. Available from: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC10196355/
14. Wu F, Lu C, Zhu M, Chen H, Zhu J, Yu K, et al. Towards a new generation of artificial intelligence in China. Nat Mach Intell [Internet]. 2020 [cited 2021 Dec 21];2:312–6. Available from: https://www.nature.com/articles/s42256-020-0183-4
15. Zeng J, Chan C, Schäfer MS. Contested Chinese Dreams of AI? Public discourse about Artificial intelligence on WeChat and People’s Daily Online. Information, Communication & Society [Internet]. 2022 [cited 2024 Feb 5];25:319–40. Available from: https://doi.org/10.1080/1369118X.2020.1776372
16. Cui D, Wu F. The influence of media use on public perceptions of artificial intelligence in China: Evidence from an online survey. Information Development. 2021;37:45–57.
17. Montag C, Ali R, Davis KL. Affective Neuroscience Theory and attitudes towards artificial intelligence. AI & Society. 2024.
18. Barredo Arrieta A, Díaz-Rodríguez N, Del Ser J, Bennetot A, Tabik S, Barbado A, et al. Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI. Information Fusion [Internet]. 2020 [cited 2023 Sep 20];58:82–115. Available from: https://www.sciencedirect.com/science/article/pii/S1566253519308103
19. Montag C, Nakov P, Ali R. On the need to develop nuanced measures assessing attitudes towards AI and AI literacy in representative large-scale samples. AI & SOCIETY. 2024; https://link.springer.com/article/10.1007/s00146-024-01888-1
20. https://www.fanaticalfuturist.com/2024/03/singapore-puts-new-policies-in-place-to-help-people-displaced-by-ai/

comment-portlet

Asset-Herausgeber