In Bezug auf Nachhaltigkeit und KI lassen sich zwei Thesen unterscheiden: Die einen sagen, KI verbraucht wahnsinnig viele Ressourcen wie Wasser, seltene Erden oder Energie. Die anderen sagen, mit KI werden enorme Effizienzsteigerungen erzielt, die Ressourcen einsparen. Wo stehen wir da nach drei Jahren ChatGPT?
Ich würde die Perspektive erweitern, denn das ganze Leben verbraucht natürlich Energie. In vielen Bereichen haben wir aber schon gelernt, wie wir uns entscheiden.
Wenn wir uns eine Badewanne einlassen oder mit dem Auto oder dem Bus fahren, dann haben viele von uns ein gutes Gespür, wie viel Energie das frisst. Im Digitalen fehlt uns da noch völlig der Kompass. Wir haben noch nicht das Gespür dafür, dass das Streamen eines Netflix-Films beim Kochen unheimlich viel Wasser und Strom verbraucht. Wir haben noch nicht gelernt, diesen Verbrauch zu erfassen und einzuschätzen – da haben wir Nachholbedarf. Am Ende kann der Einsatz von KI dann manchmal gerechtfertigt und sinnvoll sein – und manchmal nicht, so wie beim Bau von Straßen eben auch.
Und kann man an der Künstlichen Intelligenz selbst ansetzen?
KI kann nachhaltiger gestaltet werden, indem Modelle etwa effizienter gemacht werden.
Dafür muss man auch an die Workflows gehen und sich überlegen, wann überhaupt ein großes Modell wie ChatGPT notwendig ist – und wann vielleicht eine herkömmliche Suche oder etwas anderes reicht. Die großen Modelle arbeiten nach der Maxime: Viel hilft viel. DeepSeek hat demgegenüber gezeigt, wie effizienter gearbeitet werden kann.
Die haben aus dem großen Modell kleinere gemacht. In diese Richtung wird noch viel passieren, auch technisch – zumal die Großen auch schon sagen, dass ihnen die Trainingsdaten ausgehen.
Das heißt die Modelle sind somit mit spezifischen Marktdesigns verbunden?
Ja. Momentan zielen die großen Anbieter auf eine Winner-Takes-It-All-Logik. Microsoft investiert extrem viel in OpenAI in der Hoffnung, dass es nur einen großen KI-Anbieter geben wird. Sie denken an eine Hegemonie, ziehen hierfür Daten zusammen und bauen Atomkraftwerke. Dann hast du natürlich auch einen hohen Energieverbrauch. Auch in Europa folgen wir dieser Viel-hilft-viel-Logik, wenn wir vorwiegend Gigafactories und große Rechenzentren bauen. Das ist ja an sich nicht falsch, aber das ist erstmal nur ein Konjunkturprogramm für Nvidia und Beton. Ein Rechenzentrum allein ist noch keine Technologieführerschaft.
Da müssen wir weiterdenken: Wir brauchen Daten, Talente, Ökosysteme und Abnehmerinnen und Abnehmer. Gleichzeitig müssen wir aber der grundsätzlichen Logik auch nicht folgen und nicht das, was die Amerikaner machen, ein paar Jahre später und schlechter nachahmen.
Wie sieht denn die Alternative aus?
Möglicherweise brauchen wir nicht nur große Lösungen für alles, sondern auch punktuelle, gezielte und kleine Modelle, die weniger Daten und Strom sowie ein ganz anderes Setup benötigen. Denn die großen Modelle haben eben nicht nur Stärken, sondern auch Schwächen. Eine differenzierte Sicht auf die Architekturen würde uns hier helfen, wegzukommen von der monolithischen Perspektive – wie sie etwa auch in der Verordnung über Künstliche Intelligenz zu finden ist. Klar brauchen wir auch eigene große Modelle, aber KI ist nicht eine große Keule, die immer viel Strom verbrauchen muss.
Welche Folgen hätte so ein Perspektivwechsel?
Die Leute beobachten derzeit vorwiegend das globale Machtspiel und sehen dort, dass es ständig Durchbrüche gibt und Deutschland nur auf Platz 19 oder 67 oder so steht. Das verwechseln sie dann aber vollkommen mit ihren eigenen Hausaufgaben in Sachen Digitalisierung und Geschäftsmodelle – dem ganzen Klein-Klein, das zu tun ist.
Wir schauen zu sehr auf die Großen, und kommen so zum Beispiel auch gar nicht auf die Idee, etwas im Kleinen mit dem Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) oder Fraunhofer zu machen, wenn es mit ChatGPT nicht funktioniert.
Viele denken dann eher: Was die nicht können, das kann keiner.
Die Agenda 2030 der Vereinten Nationen umfasst nicht nur ökologische, sondern auch soziale und ökonomische Ziele. Welche Aspekte sehen Sie hier?
Ein Punkt ist hier der Kompetenzerhalt. Wenn man daran gewöhnt ist, dass ChatGPT die strittigen Punkte aus jedem beliebigen Dokument herausholt, dann kann das am Ende niemand mehr selbst. Deshalb ist die Frage wichtig: Welche Kompetenzen sollen die Leute noch haben? Ferner ist wichtig, dass in den nächsten Jahren viele Menschen – und damit viel Wissen, etwa über Kundinnen und Kunden, Prozesse oder die Auslegung von Gesetzen – in Rente gehen. Das lassen wir jetzt alles ziehen. Da gibt uns KI ein Window of Opportunity – diesen Übergang als ein Generationenprojekt zu verstehen, als große Wissensübergabe an neue digitale Prozesse, die aus Mensch und Maschine bestehen. Geschieht das nicht, ist man am Ende nicht mehr unterscheidbar. Dann haben alle dasselbe Wissen und jede andere Firma kann auch das, was die eigene Firma kann. Hier gilt es das Asset der Firma, das Wissen in den Köpfen der Mitarbeiterinnen und Mitarbeiter, zu bewahren.
Dr. Aljoscha Burchardt ist Principal Researcher am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) in Berlin. Er promovierte in Computerlinguistik an der Universität des Saarlandes, war Mitglied der Enquete-Kommission „Künstliche Intelligenz“ des Deutschen Bundestags. Daneben ist er Co-Host des ARD-Podcasts „KI – und jetzt?“.
Argomenti
Indiens Bedeutung für Deutschlands Wissenschaft und Innovation
Europäische Union – intern stabilisiert, extern konfrontiert
Globale Gesundheit vor dem Abstieg in die Zweitklassigkeit?
Quantentechnologie und Deutschlands Sicherheitspolitik: Eine Geopolitische Notwendigkeit
Energiekonferenz: Der Ruf nach mehr Freiraum für Innovation