Asset-Herausgeber

Einzeltitel

Open Data und KI als Innovationstreiber für Verwaltung und Wirtschaft

Keynote im Rahmen des Berlin Open Data Day am 5. November 2019

Open Data ist ein Wettbewerbsfaktor, den es zu nutzen gilt. Ausnahmen darf es nur geben, wenn die Bereitstellung – konkret belegbar – zu einem tatsächlichen Wettbewerbsnachteil führt.

Asset-Herausgeber

Meine Damen und Herren,

Offene Daten sind Daten, die zeigen wie unsere Gesellschaft funktioniert! Wie steht es um die hygienischen Standards in den Krankenhäusern, wie um die Luftqualität in der Kantstraße, wie viele Fahrräder werden am Wochenende am Savignyplatz geklaut, was sagen uns die Echtzeit Daten der öffentlichen Verkehrsunternehmen? Und wieviel haben wir verglichen mit dem Vorjahr in neue Fahrradwege investiert?

Bereits heute bestimmt Open Data das Verhältnis von Staat, Zivilgesellschaft und Wirtschaft neu.

Offene Daten dienen jedoch keinem Selbstzweck. Sie sind ein Versprechen sowohl auf wirtschaftliches Wachstum als auch auf Effizienzgewinne in den Verwaltungen: Zeitersparnis, neue Produkte, fundiertere und bessere Entscheidungen. Diese Benefits kann man NICHT IMMER quantifizieren! Fix my Street – Wie quantifizieren Sie die Benefits einer rechtzeitigen Sanierung von Straßen?

Evidenzbasierte Entscheidungen (Warum der BER und nicht der Parallelbetrieb von Tegel, warum Auftragnehmer A und nicht B), schlankere Prozesse, neue Formen von politischer Transparenz in Zeiten sinkenden Vertrauens in die Politik, aber auch skalierbare Geschäftsmodelle! All diese Beispiele sind nur ein Teil des Potentialspektrums.

Um nur einige konkrete Anwendungsbereiche zu nennen: Demografische Daten erleichtern Standfortfragen vieler Startups; Bildungsdaten unterstützen bei der Berufsorientierung; Mobilitätsdaten verkürzen unsere Verkehrswege und sparen Zeit; Daten aus dem Immobiliensektor geben Rückschlüsse auf die Preisentwicklung und die Standortattraktivität.

Im idealen Fall würden die Daten, vor allem jene der öffentlichen Hand, „miteinander reden“. Ein effektiver Datenaustausch innerhalb der Verwaltung und die Öffnung staatlicher Datenbestände könnte zu interessanten Erkenntnissen führen: Etwa, dass eine identische Leistung, ein Bericht oder ein Gutachten, mehrfach von externen Dienstleistern bezogen wurde. Voraussetzung für all dies ist, dass die Daten überhaupt auffindbar sind und die Interoperabilität gesichert ist.

Open Data ist jedoch noch immer ein uneingelöstes Versprechen. Noch liegt der Fokus im öffentlichen Diskurs immer noch zu sehr auf dem Schutz, statt auf der Nutzung der Daten. Als ich 2016 eine Open Data-Studie betreute, haben wir uns signifikante volkswirtschaftliche Vorteile versprochen, wenn ein Open Data-Ansatz breite Anwendung finden würde.

Damals sprachen wir von einem Open Data-Ökosystem für Deutschland, in dem die proaktive Veröffentlichungspflicht gesetzlich verankert ist. Wir sprachen von skalierbaren Geschäftsmodellen, vorausgesetzt wir hätten die gleiche Ausgangslage in allen Bundesländern. Vorausgesetzt wir hätten ein starkes nationalen GovData Portal in Hamburg, vorausgesetzt wir hätten gute Anreize für die Nachfrageseite, und vorausgesetzt Open Data würde als Chefsache begriffen werden.

Liest man den Fortschrittsbericht der Bundesregierung, muss man nüchtern feststellen, dass das Open Data-Versprechen immer noch uneingelöst ist. Heißt das, dass wir resignieren sollen? Keineswegs! Aber wir müssen objektiv nach den Ursachen suchen. Das größte Hemmnis für eine effektive Datenbereitstellung sind der Personalmangel sowie unzureichende Ressourcen, sich mit dem Thema Open Data auseinanderzusetzen.

Das Fehlen eines subjektiven Anspruchs auf Datenbereitstellung ist einer der Hauptkritikpunkte am ersten Open-Data Gesetz. Eine Novellierung muss dieses Problem berücksichtigen. Und wenn ich an die EU Open Data-Richtlinie denke, denke ich an hochwertige Datensätze, die thematisch zum ersten Mal definiert wurden.

Diese Daten kann man sehr wohl als EU-Datengrundinfrastruktur betrachten. AUCH WIR in Berlin sollten uns die Frage stellen: Was sind die Kern-Elemente unserer Dateninfrastruktur? Welche Daten in Berlin verfügen über die Eigenschaften öffentlicher Güter?

Es wäre gut zu wissen, welche High Value Data Sets in Berlin vorhanden sind, bzw. was deren Status ist? Wenn wir vorankommen wollen, braucht es eine solche Liste. Auch zur Vermeidung von doppelter Erhebung oder gegensätzlicher Interpretationen.

Wollen wir die öffentlichen Unternehmen von der Bereitstellungspflicht entbinden, oder wollen wir – wie vielerorts durchaus üblich –, mit diesen Daten kostenlose Wirtschaftsförderung betreiben?

Algorithmen, die in künstlicher Intelligenz (KI) verwendet werden, können nur so gut sein wie die Daten, die für ihre Entwicklung genutzt werden.

Damit KI-Anwendungen funktionieren, sind große Mengen an qualitativ hochwertigen (offenen) Daten erforderlich. Aber welche Anforderungen müssen diese Daten erfüllen?

Erst einmal muss man sich fragen, woher die Daten kommen? Wer ist verantwortlich für die Datenerhebung? Sind die Informationen, die in den Daten enthalten sind, für den Zweck des Algorithmus geeignet? Wer wird in den Daten erfasst? Wer ist unterrepräsentiert?

Auch wenn KI dazu beitragen kann, Innovationen in der Verwaltung zu fördern, ist sie nicht die Lösung für jedes Problem. Regierungen müssen entscheiden, ob KI die beste Lösung für ein bestimmtes Problem ist. Daher veröffentlichte beispielsweise die britische Regierung Leitlinien, die Beamten helfen soll festzustellen, ob KI die richtige Lösung ist.

An vielen Stellen hat KI bereits Einzug in die öffentliche Verwaltung gefunden: etwa als Risiko-Management-Systeme bei der Steuerprüfung, intelligente Verkehrsbeeinflussungsanlagen, im automatisierten Personennahverkehr, als Bürgeramtsroboter wie in Wien. Oder als KI-getriebene Grenzkontrollen: Das Easypass-System funktioniert mit maschinenlesbaren Reisepässen.

Lassen Sie mich nun kurz drei Beispiele skizieren – aus Dublin, NY und Amsterdam:

Beispiel 1: Stadtbeobachtung (Benchmarking)

Dublin im Rahmen der Initiative City Possible arbeitet mit Mastercard zusammen. Die Datenanalyse wird auch genutzt, um neue Erkenntnisse über die wirtschaftliche Leistungsfähigkeit zu gewinnen. Erkenntnisse aus den Ausgabenanalysen von Mastercard werden genutzt, das Ausgabeverhalten von Dublinern und Touristen besser zu verstehen und die Wirtschaftsleistung von Dublin mit ganz Irland zu vergleichen.

 

Beispiel 2: The NY City Business Atlas – Mayor’s office of data analytics

Der New York City Business Atlas entstand aus der Erkenntnis heraus, dass große Unternehmen, wenn es um Daten geht, oft einen Vorteil gegenüber kleineren haben. Selbst wenn die Daten verfügbar sind, haben kleine Unternehmen oft keine analytischen Fähigkeiten, sie zu verwerten.

Der Business Atlas wurde für genau diesen Zweck konzipiert: Um kleinere Unternehmen zu unterstützen, fundiertere Entscheidungen treffen zu können.

Bloomberg, der frühere Bürgermeister New Yorks war überzeugt: Open Data Analytics kann sein Regieren effizienter machen und Wirtschaftsabläufe verbessern. Wo in der Stadt sollte ein neues Geschäft öffnen? Man kann ein gutes Gefühl haben und trotzdem falsch liegen. Auf der Basis offener Daten beantwortet der New York Business Atlas diese Frage: Der Atlas bearbeitet demografische Daten, durchschnittliches Einkommen der Haushalte, Kinderzahl, Umsatzsteuerinformationen, real-time Verkehrsdaten. Das was sich bisher nur große Konzerne leisten konnten, ist nun jedermann zugänglich.

(siehe: The New Yo rk City Business Atlas, Leveling the Playing Field for Small Businesses with Open Data Andrew Young & Stefaan Verhulst, New York University)

Beispiel 3: Das Amsterdam-Beispiel habe ich dem Handelsblatt entnommen

Die Daten generiert vor allem die Amsterdam-City-Card, mit der Besucher Bus und Bahn fahren und Rabatte für viele Sehenswürdigkeiten erhalten.

Sobald ein Besucher mit der Karte ein Museum betritt, werden Ort und Uhrzeit über einen RFID-Chip erfasst. Die Daten zeigen, dass die Menschen Museen lieber am Vormittag besuchen und nachmittags eine Kanalfahrt buchen. Die Stadt versucht so Muster zu dekodieren. Die Internetplattform von der Amsterdam-Card schlägt Touristen je nach Datenlage unterschiedliche Routen durch die Stadt vor, sodass nicht alle dieselben Straßen verstopfen.

Doch nicht nur die Masse an Touristen stellt Amsterdam vor Probleme, sondern auch ihr Verhalten. Auch für dieses Problem liefern KI und Open Data eine Lösung: Man kann anhand von Daten feststellen, wer die Störenfriede sind und ihnen gezielt entsprechende Werbung anzeigen. Die pädagogische Werbebotschaft: „Ihr seid herzlich willkommen – aber nur, wenn ihr euch anständig verhaltet“.

Liebe Open Data-Verfechter,

Offene Daten nicht nur unser Herzensanliegen. Sie funktionieren nur, wenn man den Weg konsequent geht, auch wenn noch viele dicke Bretter zu bohren sind. Man muss aus Überzeugung handeln. Es hat in den vergangenen Jahren zwar keinen Quantensprung gegeben. Aber trotzdem: Wo wären wir heute ohne die Beiträge der Open Knowledge Foundation, der Technologie Stiftung oder von Fraunhofer – und nicht zu vergessen die Unterstützung der Senatsverwaltung für Wirtschaft?

Obwohl ich vor vier Jahren einen Open by default-Ansatz für richtig gehalten habe, weiß ich heute, dass es eine Utopie ist, und ich bin mir bewusst, dass die proaktive Veröffentlichungspflicht gewisse Irritationen hervorgerufen hat.

Mittlerweile bin ich zu der Überzeugung gelangt, dass die „Zweckmäßige Datenbereitstellung“ nicht im Widerspruch zu einer „prinzipiellen Datenoffenheit“ steht. Ein isoliertes Datenangebot ist weniger effektiv als eine zielgerichtete und problembezogene Datenbereitstellung. Wenn wir die „prinzipielle Datenoffenheit“ (Open by Default) anstreben, ist die „zweckmäßige Datenbereitstellung“ das erste Etappenziel auf dem Weg dorthin.

Damit Open Data erfolgreich ist, muss man den Mut haben, es auszuprobieren und bereit sein, mehrere Anläufe zu machen. „Starting by starting“.

Sehr geehrte Damen und Herren

KI-Systeme benötigen Open Data, um zu funktionieren. Wer nicht mit der Entwicklung Schritt hält, wird schnell überholt.

Noch ein Beispiel für ein KI-Projekt, das zeigt, wie eine Polizeibehörde in Manchester große Mengen an Open Data in der Kriminalprävention verwendet. Einbrüche wurden um 33 Prozent reduziert und Gewaltverbrechen um 21 Prozent.

Die steuerfinanzierten Daten in Silos zu speichern, halte ich nicht nur für ordnungspolitisch fatal, sondern auch für unethisch. Es ist auch – im Einklang mit der Sozialen Marktwirtschaft – Aufgabe des Staates, Rahmenbedingungen für eine florierende Wirtschaft zu schaffen. Es ist definitiv nicht Aufgabe des Staates, Daten zu verkaufen, die für andere Zwecke gesammelt wurden.

Wir wünschen uns intelligente Entscheidungen in Politik und Gesellschaft?

Dafür braucht es personelle Ressourcen, Datenvolumen und Datenvielfalt. Und nicht zuletzt: Die Daten müssen korrekt sein und für jedermann zugänglich.

Open Data ist ein Wettbewerbsfaktor, den es zu nutzen gilt. Ausnahmen darf es nur geben, wenn die Bereitstellung – konkret belegbar – zu einem tatsächlichen Wettbewerbsnachteil führt. Vielen Dank

Asset-Herausgeber

Kontakt

Dr. Pencho Kuzev

Dr

Daten- und Wettbewerbspolitik

pencho.kuzev@kas.de +49 30 26996-3247 +49 30 26996-3551

comment-portlet

Kommentare

Bitte melden Sie sich an, um kommentieren zu können

Asset-Herausgeber

Asset-Herausgeber

Asset-Herausgeber