Einzeltitel

„KI ist kein Schicksal, sondern Gestaltungsaufgabe“

von Norbert Lammert
Prof. Dr. Norbert Lammert über Künstliche Intelligenz und Robotik
„Der Wettbewerb um die Vorherrschaft in KI auf nationaler Ebene wird meiner Meinung nach der wahrscheinlichste Auslöser des dritten Weltkriegs“, twitterte Tesla-Chef Elon Musk. Seine arg pessimistische Erwartung wird von so unterschiedlichen Persönlichkeiten wie Stephen Hawking und Bill Gates geteilt. Dagegen ist Facebook-Chef Mark Zuckerberg der Überzeugung: „Wer gegen künstliche Intelligenz argumentiert, argumentiert gegen sicherere Autos und gegen bessere Diagnosen für Kranke. Ich sehe einfach nicht, wie jemand guten Gewissens das tun kann.“ Diese prominenten Wortäußerungen führen die diskursive Spannbreite und das Konfliktpotenzial im Umgang mit der Künstlichen Intelligenz (KI) vor Augen.

Jedenfalls müssen wir dafür sorgen, „dass KI-Systeme ethische Leitplanken berücksichtigen“, so Wolfgang Wahlster, Leiter des Deutschen Forschungszentrums für Künstliche Intelligenz. Dies belegt allein das vielfach zitierte Szenario des autonomen Fahrzeugs, das auf eine Notsituation zusteuert und entscheiden muss, ob es einen oder mehrere Passanten überfährt oder bei einem Ausweichmanöver das Leben der Insassen riskiert.

Mit der autonomen Mobilität wird eine Spielart der KI schon in naher Zukunft Realität werden. Damit geht die Erwartung einher, dass Autofahren nicht nur günstiger, klimafreundlicher und effizienter wird, sondern auch sicherer. Denn es ist nicht zu erwarten, dass KI betrunken am Steuer sitzt, bei einer langen Nachtfahrt einschläft oder während dem Fahren textet. „Unsere primäre Motivation, Fahrzeugen das Selbstfahren beizubringen, kommt gerade aus der Zielsetzung, die wir schon sehr lange verfolgen: der Vision des unfallfreien Fahrens“, erklärt Daimler-Chef Dieter Zetsche. Dennoch wird auch die autonome Mobilität nicht frei von Risikosituationen sein. Wenn in bestimmten Gefahrensituationen eine Schädigung von Menschen unvermeidbar ist, muss das System „entscheiden“, wer geschädigt wird und wer nicht. Der Rechtswissenschaftler Mario Martini, Mitglied der Datenethikkommission der Bundesregierung, wies in diesem Zusammenhang darauf hin, dass der Mensch damit einen Teil seiner „ethischen Steuerungsmacht“ an den Algorithmus abritt. Daher benötige dieser einen Wertkompass für Entscheidungsregeln. Verantwortung dafür trägt immer der Mensch, niemals Maschinen: Es kommt also darauf an, dass Algorithmen so gestaltet sind, dass sie Ethik und Recht widerspiegeln: Muss der Schutz der Insassen immer Vorrang haben? Soll KI abwägen, ob es im Zweifelsfall eher Erwachsene als Kinder treffen soll? Wer entscheidet über den Algorithmus – der Autokäufer, der Hersteller oder der Gesetzgeber?

Als sozialethisch brisant könnten sich ferner die Auswirkungen von KI auf die Wirtschafts- und Arbeitswelt erweisen. Wie eine von der Konrad-Adenauer-Stiftung in Auftrag gegebene Analyse zur wirtschaftspolitischen Bedeutung der Robotik zeigt, besteht zwar kein Grund zur Panikmache vor einer vermeintlichen Massenarbeitslosigkeit, doch „intelligente“ Maschinen werden künftig zumindest einzelne Tätigkeiten in etablierten Berufen übernehmen. Die Folge wird ein veränderter Arbeitsmarkt sein, der von den Menschen neue Fertigkeiten erfordern wird.

Kaum jemand bezweifelt, dass mit KI wie bei jeder neuen Technologie weitreichende, ambivalente und unvorhersehbare Konsequenzen verbunden sind.

Was kann, was darf, was soll die Politik in diesem Zusammenhang tun? Unbestritten ist, dass es ethische und rechtliche Regeln braucht, damit aus technologischer Innovation menschendienlicher Fortschritt wird. Denn Technologie ist nicht per se moralisch gut oder schlecht. Einem Mobiltelefon ist es egal, ob es von besorgten Eltern, niederträchtigen Extremisten oder aufrichtigen Demokraten genutzt wird. Ethische Maxime müssen immer Vorrang vor reinen Nützlichkeitserwägungen haben. Gleichzeitig dürfen wir in der Forschung und Entwicklung den Anschluss nicht verlieren. Denn der wirtschaftliche Wohlstand, der Lebensstandard und letztlich auch unsere Sicherheit werden maßgeblich davon abhängen, wie wir hinsichtlich der Entwicklung und Nutzung von KI aufgestellt sein werden. Eine internationale Vergleichsstudie zu Förderstrategien von KI in verschiedenen Ländern, die die Konrad-Adenauer-Stiftung dieses Jahr veröffentlicht hat, weist deutlich die Defizite der Europäer in diesem Gebiet auf. Wenn wir mit den USA und China mithalten wollen, müssen wir insbesondere besser darin werden, Wissenschaft und Wirtschaft, Grundlagenforschung und Anwendung effektiver miteinander zu vernetzen.

Die Politik hat die verantwortungsvolle Aufgabe, technologische Innovationen zu fördern, diese aber gleichzeitig nach ethischen Standards zu regulieren. Zugegebenermaßen handelt es sich dabei um eine Gradwanderung. Allerdings ist kritisch zu hinterfragen, welche nationalen Maßnahmen in Zeiten globalisierter Unternehmen für eine wirksame Gestaltung geeigneter Rahmenbedingungen überhaupt noch zur Verfügung stehen.

Die Politik hat zu entscheiden, wie die Interessen und Bedürfnisse einer Gesellschaft zu gewichten sind, wo moralische Grenzen liegen, und sie hat diese Entscheidungen durchzusetzen. Die Unantastbarkeit der Menschenwürde, die Freiheit des Menschen und sein Recht auf Selbstbestimmung, dies sind die normativen „Leitplanken“, entlang derer sich die politische Begleitung technischer Entwicklungen in einem Verfassungsstaat vollziehen sollte. Eher heute als morgen müssten wir uns mit künftig absehbaren Problemstellungen auseinandersetzen – auf dem Arbeitsmarkt, im Gesundheitssystem, im Straßenverkehr.

Dabei können wir uns von unseren christlichen Grundwerten leiten lassen. Ganz in diesem Sinne gebieten es die soziale Gerechtigkeit und das Subsidiaritätsprinzip, dass wir Modernisierungsverlierer nicht durch Alimentierung, sondern durch Befähigungsstrategien eine sinnvolle gesellschaftliche Partizipation ermöglichen.

Wir sind technologischen Entwicklungen nicht hilflos ausgeliefert. KI ist kein Schicksal, sondern Gestaltungsaufgabe. Dabei sollten wir uns eine Tatsache immer wieder vor Augen führen: „Künstliche Intelligenz“ wird so bezeichnet, eben weil sie künstlich geschaffen, also menschengemacht ist. Wie alles Menschengemachte muss sie sich einfügen in einen rechtlichen Rahmen, der die ökonomische Nutzbarkeit regelt und auf ethischen Normen basiert. In der digitalisierten Welt einen solchen Rahmen von weltweiter, allgemeiner Gültigkeit zu setzen, ist eine ebenso gewaltige Herausforderung wie die daraus folgende Aufgabe, das Recht auch durchzusetzen, Verstöße dagegen zu ahnden und zugleich einen überzeugenden Beitrag für notwendige Regeln und Standards im Umgang mit KI auf der internationalen Ebene zu leisten. Die europäische Datenschutz-Grundverordnung kann als Beispiel dafür dienen, dass zumindest eine EU-weite einheitliche Regelung möglich ist, die inzwischen – trotz mancher Einwände und Vorbehalte – weltweit zu einem Referenzmodell geworden ist.

Letztlich kommt es auf die Nutzung natürlicher menschlicher Intelligenz an. Denn KI trifft keine Entscheidungen, sondern setzt sie um; die Entscheidungskompetenz liegt beim Menschen, bei uns – und damit auch die Verantwortung.

 

Dieser Text erschien zuerst in der Frankfurter Allgemeinen Zeitung.

Kommentare

Bitte melden Sie sich an, um kommentieren zu können