Denn "Technologiewandel verändert [zwar] etablierte und routinistische Strukturen der gesellschaftlichen Entscheidungsfindung", sei aber "kulturell gestaltbar". Da "der Staat nicht alles unterdrücken” dürfe, müssten Innovationen zugelassen und "Gängelungen" vermieden werden. Qualitätsstandards sollten sicherstellen, dass Risiken gefunden und bewertet werden können. Schließlich unterlag auch die Bauindustrie staatlichen Regelungen; so seien ab einer bestimmten Bedeutung von Gebäuden die Weisungen von Statikern maßgeblich.
Gleichwohl sei KI in der Wahrnehmung Vieler "Faszinosum und Tremendum" zugleich, aber letztlich stellten sich bloß "alte Fragen in einem neuen wirtschaftspolitischen Kampffeld". Nicht von ungefähr schössen seit etwa drei Jahren "Digital Ethics Guidelines" (auch seitens der EU) wie Pilze aus dem Boden. Letztlich sei Digitalisierung "vergleichbar mit der Erfindung des Buchdrucks". Aber: "Algorithmen entscheiden nie! Denn Entscheidungen zu treffen, heißt Verantwortung übernehmen." Die Fähigkeit, Entscheidungen zu treffen und für sie Verantwortung zu übernehmen, sei ausdrücklich dem Menschen vorbehalten: "Tiere und Maschinen entscheiden nichts, da sie keine Verantwortung übernehmen können."
Der Theologe und Ökönom erläuterte seine These, Algorithmen seien wie Kochrezepte. "Ihre Zutaten sind Daten, die mit bestimmten und vorgegebenen Techniken bearbeitet werden." Professor Fetzer erinnerte an den bekannten Satz "Habe Mut, Dich Deines eigenen Verstandes zu bedienen" und richtetete einen Appell an die 60 Teilnehmerinnen und Teilnehmer, Ängste abzulegen und KI-Kompetenz zu erwerben.
Themen
Über diese Reihe
Die Konrad-Adenauer-Stiftung, ihre Bildungswerke, Bildungszentren und Auslandsbüros bieten jährlich mehrere tausend Veranstaltungen zu wechselnden Themen an. Über ausgewählte Konferenzen, Events, Symposien etc. berichten wir aktuell und exklusiv für Sie unter www.kas.de. Hier finden Sie neben einer inhaltlichen Zusammenfassung auch Zusatzmaterialien wie Bilder, Redemanuskripte, Videos oder Audiomitschnitte.