Welche regulatorischen Aufgaben bringt ChatGPT mit sich?
Wir haben es bei KI wie ChatGPT mit einem Produkt, wenn man so will: einem Werkzeug, zu tun. Regulatorisch gibt es da zwei Anknüpfungspunkte. Der eine ist – bildlich gesprochen – das Werkzeugrecht. Für Werkzeuge gibt es Regeln. Wenn Sie ein Auto im Straßenverkehr bewegen wollen, dann gibt es für das Produkt Auto die Straßenverkehrszulassungsordnung, in der festgelegt ist, was Sie tun müssen, um das Auto betreiben zu dürfen. Das zweite ist das Recht, welches den Menschen vor der Fehlbenutzung des Werkzeugs KI schützt. Um im Bild zu bleiben: Sie müssen darauf achten, mit einem ordnungsgemäß zugelassenen Auto nicht zu schnell in der Fußgängerzone zu fahren.
Beides ist strikt zu trennen. Es gibt die erste Frage zum Werkzeug und dessen Einsatz an sich, und die zweite dazu, ob durch den Einsatz Rechte verletzt werden. Diese Rechtsverletzung richtet sich nicht nach dem KI-Recht, sondern nach sonstigem Recht – etwa dem Datenschutzrecht, dem Urheberrecht oder dem Persönlichkeitsrecht.
Ein besonders aufschlussreicher Fall war ein „Interview mit Michael Schumacher“, das von Künstlicher Intelligenz erzeugt wurde. Mit Blick auf den Einsatz des Werkzeugs – KI-rechtlich – war das nicht problematisch, jedoch wurde das Persönlichkeitsrecht von Michael Schumacher verletzt.
Gibt es Unterschiede zwischen Künstlicher Intelligenz und anderen Werkzeugen?
Die Besonderheit von KI liegt darin, dass sie Rechte verletzen kann, ohne dass Menschen das Werkzeug beherrschen können. KI kann autonom Rechtsverletzungen begehen – das ist das Besondere dieses Werkzeugs. Ein Tier kann das auch. Wenn ein Hund ein Stöckchen sucht und sich bei der Suche entscheidet, lieber einem Spaziergänger in die Hose zu beißen, haben Sie eine Rechtsverletzung, die der Halter verantworten muss.
Über diese Verantwortung streiten derzeit die New York Times und OpenAI. Die Zeitung wirft dem Unternehmen Urheberrechtsverstöße vor. Wie ist das einzuordnen?
Juristisch ist die Frage, welche die New York Times zu Recht stellt: Inwiefern muss sich das Unternehmen, das die KI trainiert, Urheberrechtsverletzungen zurechnen lassen, die innerhalb einer Blackbox passieren? Die Frage ist, ob das, was die KI hervorbringt, auf ein verbotenes Training der Daten zurückzuführen ist und ob das dem Anbieter der Künstlichen Intelligenz zugerechnet werden kann. Manche Anbieter lenken ein und sagen sinngemäß: „Okay, wir verdienen viel mit euren Inhalten, deshalb bekommt ihr Rechteinhaberinnen und Rechteinhaber etwas davon ab.“ Es wird aber teilweise auch bestritten, dass personenbezogene oder urheberrechtlich geschützte Inhalte in den Modellen enthalten sind, da die Inhalte in viele kleine Schnipsel, sogenannte Tokens, aufgeteilt sind und diese Tokens isoliert keinen Schutz genießen. Sinn ergeben sie erst, wenn sie mit einem Prompt zu einem geschützten Inhalt zusammengefügt werden.
Gerade wird diskutiert, wie präzise der Prompt sein muss. Spuckt die Künstliche Intelligenz auf einem allgemeinen Prompt quasi von allein einen geschützten Inhalt aus, ist es etwas anderes, als wenn ein Nutzender den Inhalt dem Bot trickreich entlockt.
Im letzten Fall würde etwas für die Verantwortung des Nutzenden sprechen, im ersten würde man eher auf den Anbieter schauen. In dem konkreten Fall muss am Ende ein Gericht in den Vereinigten Staaten entscheiden, ob das Fair Use ist. In Deutschland gibt es ein Verfahren der GEMA. Wir haben hier die Kategorie des Fair Use nicht. Wie die Fälle gelöst werden, ist noch offen – wobei das Rechtsgefühl sagt, dass Urheberinnen und Urheber beteiligt werden müssen, wenn deren Inhalte rechtswidrig genutzt werden.
Andere Verlage klagen nicht, sondern schließen exklusive Kooperationsverträge jenseits des allgemeinen Rechts. Wie ist das einzuordnen?
Im Hinblick auf die Vielfalt ist das eine problematische Entwicklung. Große Unternehmen werden sich Kooperationen leisten können, die sich andere Anbieter nicht leisten können. Auf der anderen Seite machen sich kooperierende Medienhäuser natürlich auch abhängig. Denn so eine Kooperation bedeutet ja nicht, dass man die Kontrolle bekommt. Auf der anderen Seite werden jene, die nicht kooperieren, Schwierigkeiten haben, in der Inhaltewelt des Datenmodells vorzukommen.
Sie haben bereits angedeutet, dass es global unterschiedliche Regeln gibt. Können Sie diese Unterschiede kurz skizzieren?
Holzschnittartig kann man drei Regulierungsansätze unterscheiden: In den Vereinigten Staaten herrscht nahezu vollständige Deregulierung. Donald Trump hat im Sommer mehr oder weniger die komplette KI-Regulierung aufgehoben – und für mich gibt es dort letztlich kaum erkennbare Grenzen. In China wird reguliert, aber dort steht die Innovationsfreundlichkeit im Fokus. Hauptaugenmerk ist es dort, Innovationen zu ermöglichen. In Europa steht hingegen die Grundrechteorientierung eines menschenzentrierten Ansatzes im Vordergrund.
Welche Vor- und Nachteile gehen mit den unterschiedlichen Ansätzen einher?
Man kann natürlich sagen, dass der entwicklungsoffenste und wirtschaftsfreundlichste Ansatz derjenige der Vereinigten Staaten ist. Es ist viel möglich, aber da kann auch viel Ungewolltes passieren – wie bei einem Zug ohne Bremse. Und ich glaube, das ist am Ende des Tages das, womit sich die Vereinigten Staaten auseinandersetzen müssen:
Wie lange kann die unregulierte Entwicklung einer Technik, die nicht nur hilfreich, sondern auch gefährlich sein kann, gut gehen?
In China wird der Staat stark steuern. In Europa kann es demgegenüber schon sein, dass die Regulierung als Bremse empfunden wird. Für europäische Regulierende stellt sich dann die Frage, wie man damit umgeht, wenn man von den Vereinigten Staaten aufgrund des kaum regulierten Ansatzes in der Forschung überholt wird. Man überlegt bereits jetzt, ob man die Wirksamkeit der KI-Verordnung teilweise aufschiebt. „Stop-the-Clock-Mechanismus“ nennt sich das. Das wäre ein Einknicken des europäischen Gesetzgebers mit Blick auf die weltweiten Konkurrenten.
Da stellt sich auf der anderen Seite die Frage, ob das Sinn ergibt: Sollten wir es nicht eher schaffen, mit unserer Regulierung einen verantwortungsbewussten Umgang mit dieser Technik zu ermöglichen? Ich weiß es nicht. Sicher ist nur: Die Möglichkeiten der KI sind enorm – die Gefahren aber auch.
Und wenn man vom einzelnen Menschen ausgeht – was bedeutet die Regulierung für ihn?
Der Vorteil ist, dass Menschen vor ungewollten Folgen der KI geschützt werden und die Ordnung erhalten bleibt. Wenn der Gesetzgeber etwa verbietet, dass Menschen in ihrem Verhalten von Maschinen bewertet werden, dann verhindert er Social Scoring oder die Bewertung von Beschäftigten oder Schülerinnen und Schülern durch KI. Dann bekommen Schülerinnen und Schüler keine Noten von Robotern, sondern von Lehrkräften. Und Menschen werden von Menschen und nicht von Maschinen befördert oder entlassen.
Sie können nun fragen: Ist das wirklich ein Vorteil? Zumindest nach europäischer Rechtsauffassung: ja. Sie können natürlich auch sagen, dass das ein Nachteil ist. Vielleicht kann man es auch als positiv empfinden, von KI eingestuft zu werden, statt staatlicher Willkür ausgesetzt zu sein. Aber es ist natürlich ein guter Ansatz für den Staat, dass man eine Risikobewertung macht und sagt: Für neue Technik gibt es nach Risiken abgestufte Regeln.
Teil der Regeln in Europa sind auch Verbote, die jedoch nicht nur auf der Risikoklassifizierung der KI-Verordnung der EU basieren. Können Sie hierzu noch etwas sagen?
Ein gutes Beispiel sind die Ärztinnen und Ärzte. Wenn Sie ChatGPT eine medizinische Frage zur Diagnose eines Gesundheitsproblems stellen, dann bekommen Sie darauf eine Antwort. Wenn eine Privatperson das macht, dann ist das in Ordnung, weil für die private Verwendung das KI-Recht und das Arztrecht nicht gilt. Macht das eine Ärztin oder ein Arzt, entstehen zwei Probleme: Erstens, die medizinische Fachkraft benutzt mit ChatGPT ein Produkt für medizinische Zwecke, das nicht als Medizinprodukt zugelassen ist. Das ist nach dem Medizinprodukterecht nicht erlaubt. Zweitens, die Ärztin oder der Arzt nimmt keine persönliche Diagnose vor, sondern lässt diese von einer Künstlichen Intelligenz erstellen – das ist nach dem Medizinrecht ebenfalls nicht zulässig. Derselbe Vorgang ist also für eine private Nutzung erlaubt, für eine berufliche Nutzung rechtlich problematisch.
Sehen Sie uns mit diesen Regeln gut aufgestellt – oder besteht Handlungsbedarf?
Die Verordnung über Künstliche Intelligenz hat einen vernünftigen Grundansatz, weil sie Risiken abstuft. Es gibt Schwächen, aber der Ansatz ist richtig.
Rolf Schwartmann ist Professor für Öffentliches und Internationales Wirtschaftsrecht an der Technischen Hochschule Köln und leitet die Kölner Forschungsstelle für Medienrecht. Er ist Vorsitzender der Gesellschaft für Datenschutz und Datensicherheit (GDD) und berät Länderparlamente, den Bundestag und die Bundesregierung – etwa als Mitglied der Datenethikkommission der Bundesregierung und Gründungsmitglied des Beiates Medien-Digital des Landes NRW.
Teemad
Indiens Bedeutung für Deutschlands Wissenschaft und Innovation
Europäische Union – intern stabilisiert, extern konfrontiert
Globale Gesundheit vor dem Abstieg in die Zweitklassigkeit?
Quantentechnologie und Deutschlands Sicherheitspolitik: Eine Geopolitische Notwendigkeit
Energiekonferenz: Der Ruf nach mehr Freiraum für Innovation