Was machen Sie beim AI and Automation Lab vom Bayerischen Rundfunk?
Wir untersuchen in verschiedenen Projekten, wie wir mit KI und Automatisierung die Arbeit der Redaktionsmitarbeiter und -mitarbeiterinnen vereinfachen können. Das umfasst ganz verschiedene Bereiche: das Schreiben von Nachrichten, das Organisieren von Inhalten, das Schneiden von Videos und zum Teil auch das Recherchieren – wobei wir das im Moment noch nicht so sehr unterstützen.
Setzen Sie ChatGPT ein?
Wir testen immer verschiedene Modelle. Da ist GPT momentan nicht die erste Wahl, sondern Claude, möglicherweise bald Gemini. Die Entwicklungszyklen sind relativ schnell und die Modelle werden von den Anbietern häufig aktualisiert. So müssen wir immer wieder neu schauen, was das Beste ist. Die Qualität der Modelle variiert auch sehr stark – GPT-5 liefert beim Bearbeiten von Texten zum Teil sehr gute, dann wieder schlechte Ergebnisse. Das nutzen wir aktuell nicht.
Worauf achten Sie bei Ihren Tests?
Im Journalismus ist es der wichtigste Faktor, dass alles inhaltlich richtig ist und auch keine falschen Worte gewählt werden – es ist einfach ein No-Go, wenn etwas journalistisch falsch ist. Dafür lesen wir alle Texte gegen und da war GPT in den vergangenen Monaten nicht so gut wie Claude.
Wo setzen Sie große Sprachmodelle ein?
Momentan lassen wir von großen Sprachmodellen vor allem Nachrichtenmeldungen kürzen, beispielsweise für Radionachrichten. Da ist der Klassiker eine vorgelesene Meldung unter einer Minute. Und da kann die KI schon sehr gute Entwürfe verfassen, die natürlich von der Redaktion gegengelesen und überarbeitet werden. Sobald dann aber ein O-Ton von einem Interview reinkommt, wird es vom Workflow her schon wieder kompliziert. Da hört sich die Redaktion erst den O-Ton an und macht sich mit dem Kontext vertraut. Da sind viele menschliche Einschätzungen involviert, die wir momentan mit KI nicht umsetzen können. Daher beschränkt sich der Einsatz von KI bei uns aktuell auf Standardvorgänge.
Da ChatGPT kostenlos beziehungsweise sehr kostengünstig und leicht zu bedienen ist, wird es häufig als günstig beschrieben. Wie viele Ressourcen mussten Sie investieren?
Man braucht sehr viele Ressourcen. Für das Testen von KI im Newsroom benötigt man Kolleginnen und Kollegen, die technisches Knowhow haben, die aber auch die Workflows in Redaktionen und die Qualität journalistischer Texte kennen. Diese müssen dann auch gut zusammenarbeiten können – da kommen Projektmanagement-Aspekte hinzu. Man muss wirklich viel testen, ein Modell auswählen und auch die Bereitschaft haben, sich von einer KI etwas vorschlagen zu lassen, das man dann anschließend korrigiert.
Danach ist noch viel weiteres Investment nötig, um einen Prozess zu einem Standard im Newsroom zu machen. Diese Entwicklungsarbeit hält einen natürlich auch von anderen Aufgaben in der Redaktion ab. Natürlich sind das Investitionen in zukunftsfähige und spannende Systeme, aber zunächst ist es vor allem zusätzlicher Aufwand. Es ist definitiv nicht damit getan, dass man ChatGPT öffnet und sich einen Text entwerfen lässt. Natürlich werden die Systeme immer besser, aber man muss schon wirklich genau hinschauen und eine beständige Qualitätskontrolle machen. Denn natürlich hört es sich erstmal gut an, wenn GPT einen Text verfasst. Aber wenn dann inhaltliche und stilistische Fehler entstehen, kostet der Einsatz von Künstlicher Intelligenz im Endeffekt mehr Zeit, als dass er sie einspart.
Welche Gesetze und Regeln gelten für Sie?
Wir können prinzipiell erstmal nur Dinge entwickeln, die unseren Datenschutzrichtlinien entsprechen und
datenschutzkonform im Sinne der Datenschutz-Grundverordnung sind. Das heißt, dass wir eben nicht auf der grünen Wiese arbeiten, sondern dass wir nur Dinge auf unserer Infrastruktur entwickeln, von denen wir wissen, dass sie langfristig unseren Datenstandards entsprechen. Darüber hinaus ist es für uns das Wichtigste, unsere Glaubwürdigkeit nicht zu verlieren. Deshalb wägen wir sehr ab, welche Schritte wir überhaupt gehen. Dabei spielen neben unseren Qualitätsstandards auch ethische Aspekte eine Rolle. Wir haben einen Workflow von Exploration, Entwicklung und Verstetigung.
Natürlich muss es in der Exploration sehr große Freiheiten geben, damit man überhaupt innovativ bleibt, aber dann gilt es zu evaluieren und zu prüfen, was überhaupt Sinn ergibt. Hier müssen wir dann auch alle Schritte mit dem Personalrat absprechen, und auch bei unserem KI-Ethik-Board und dem KI-Beirat müssen wir richtungsweisende Schritte genehmigen lassen.
Wo sehen Sie den Journalismus in den nächsten fünf bis zehn Jahren?
Ich glaube, dass es ganz neue journalistische Formate geben wird und die Künstliche Intelligenz den Nutzerinnen und Nutzern im Dialog hochpersonalisierte Inhalte liefern wird. Ich glaube aber nicht, dass Journalismus in zehn Jahren von allein funktionieren wird. Journalismus wird kein KI-System sein, das alles selbst macht, sich selbst füttert und selbst seine Qualität überprüft. KI wird vielmehr ein Helfer im Newsroom sein und einzelne Aufgaben übernehmen. Daneben wird immer der Mensch benötigt werden, der die richtigen Impulse setzt und KI intelligent nutzt.
Jörg Pfeiffer ist Produktentwickler im AI and Automation Lab des Bayerischen Rundfunks (BR). Vorherige Stationen waren das Google News Lab und die Deutsche Presse Agentur.
หัวข้อ
Indiens Bedeutung für Deutschlands Wissenschaft und Innovation
Europäische Union – intern stabilisiert, extern konfrontiert
Globale Gesundheit vor dem Abstieg in die Zweitklassigkeit?
Quantentechnologie und Deutschlands Sicherheitspolitik: Eine Geopolitische Notwendigkeit
Energiekonferenz: Der Ruf nach mehr Freiraum für Innovation