Künstliche Intelligenz: OECD will Regierungen auf die Finger schauen

Foto: CC0 1.0, Pixabay User geralt | Ausschnitt angepasst
Veröffentlicht am 05.06.2019

Die OECD hat ein vergleichsweise deutliches Regelwerk für Staaten zu Künstlicher Intelligenz verabschiedet. Erstmals sind auch die USA daran beteiligt. Das Werk weist klare Verantwortlichkeiten zu und soll auch die Prüfung ihrer Einhaltung ermöglichen. Dazu hofft die OECD allerdings weniger auf rechtliche Verbindlichkeit als auf „Peer Pressure“.

Foto: CC0 1.0, Pixabay User geralt | Ausschnitt angepasst

Es gibt kaum ein internationales Gremium, das sich derzeit nicht mit dem Thema Künstliche Intelligenz (KI) beschäftigt. Ob auf EU-Ebene, in den G7 oder G20 – um die politischen Rahmenbedingungen für die Technologie ringen Staatengruppen weltweit. Weniger beachtet waren bisher die Arbeiten in der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD), der Gruppe der Industriestaaten mit 36 Mitgliedern aus Europa, Nord- und Südamerika sowie Asien und Ozeanien. Am Mittwoch, 22. Mai, verabschiedeten Vertreter der Mitgliedsländer und vier weiteren Staaten in Paris ein Regelwerk, welches das bisher wohl verbindlichste internationale Abkommen zu KI darstellt.

Nicht nur, weil es erstmals auch die USA als wichtigen Akteur mit einbindet, sondern auch, weil es über die bloße Aufstellung von ethischen Leitplanken, die Unternehmen befolgen sollen, hinausgeht. Die OECD will die Regierungen in die Pflicht nehmen. Dafür setzt die OECD auf evidenzbasiertes Monitoring und Kontrollmechanismen. Bis Ende des Jahres soll beispielsweise ein KI-Observatorium aufgebaut werden, das die Umsetzung der Vorgaben auf Policy-Ebene misst. Die öffentliche Diskussion soll für die nötige „Peer Pressure“ sorgen, wenn gewisse Staaten die Regeln nicht gut oder zu langsam umsetzen. Zudem wird ein Austausch von „Best Practices“ angestrebt. So hofft die Organisation, dass die rechtlich formell nicht bindenden Regeln dennoch Durchschlagskraft erhalten können. Experten hatten auch mit Blick auf die deutsche KI-Strategie bemängelt, darin sei die Messbarkeit der Vorhaben nicht ausreichend mitbedacht. In dieser Hinsicht könnte die Herangehensweise der OECD einen Mehrwert schaffen.

Prinzipien für „trustworthy AI“

Die Empfehlung, die der jährliche Ministerrat der OECD am 22. Mai verabschiedete, enthält zum einen „value-based principles“, die von so genannten „KI-Akteuren“, also für ihren Einsatz verantwortliche Organisationen oder Personen, beachtet werden sollen. KI soll demnach inklusives Wachstum ermöglichen – also auch Diskriminierung vorbeugen –, demokratische und freiheitliche Werte respektieren sowie transparent und erklärbar sein. Ihr Einsatz soll sicher sein und dies kontinuierlich überprüft werden. Akteure, die KI einsetzen, sollen die Verantwortung dafür tragen. So weit, so vage die grundlegenden Prinzipien der OECD-Empfehlung.

Neben diesen Prinzipien enthält die Empfehlung aber auch Leitlinien für Regierungen für ihre nationale Gesetzgebung und internationale Kooperationen. So sollen die Staaten langfristige Investitionen in die Anwendung von KI fördern, ob von staatlicher Seite oder aus dem Privatsektor. Besonders empfehlen die Leitlinien Investitionen in die Entwicklung offener und interoperabler Datenanwendungen. Staaten sollen außerdem KI-Ökosysteme fördern. Damit gemeint sind auch Grundlagen wie Dateninfrastrukturen oder genossenschaftliche Modelle zum Daten Teilen. Staaten sollen außerdem Dialoge mit Sozialpartnern führen, um sich auf Veränderungen am Arbeitsmarkt durch den zunehmenden Einsatz von KI vorzubereiten. Außerdem sollen die Staaten bei KI zusammenarbeiten und Erfahrungen austauschen.

BMAS und BMWi in Expertengruppe

Eine internationale Expertengruppe hatte die Prinzipien erarbeitet. Die OECD hatte sie im Mai 2018 eingesetzt, etwa zur gleichen Zeit hatte auch die hochrangige Expertengruppe der EU-Kommission ihre Arbeit begonnen. Unter den OECD-Experten waren Vertreter der Regierungen sowie von Tech-Unternehmen, aus der Wissenschaft und Zivilgesellschaft. Auf vier Treffen im Laufe des Jahres 2018 sowie Anfang 2019 formulierte die Gruppe die Prinzipien, am Mittwoch segnete die ministerielle Ebene diese ab. Für Deutschland nahm Wirtschaftsstaatssekretär Ulrich Nußbaum an dem Treffen teil.

Für die Bundesregierung war laut Mitgliederliste Michael Schönstein von der Denkfabrik Digitale Arbeitsgesellschaft im Bundesarbeitsministerium (BMAS) in der Expertengruppe vertreten, dankend erwähnt wird zudem die Arbeit von Nils Börnsen aus dem Wirtschaftsministerium (BMWi), auch wenn er kein Mitglied war. Laut Auskunft des BMAS hatten je nach zeitlicher Verfügbarkeit verschiedene Vertreterinnen und Vertreter aus BMWi und BMAS an den OECD-Treffen teilgenommen. Beide Ministerien waren zu der Zeit neben dem Forschungsministerium (BMBF) federführend für die Erarbeitung der deutschen KI-Strategie verantwortlich, die explizit Bezug auf den Prozess auf OECD-Ebene nimmt.

Eine Sprecherin des BMAS teilte dem Tagesspiegel mit, dass sich die Bundesregierung im Rahmen der Expertengruppe dafür eingesetzt habe, dass die OECD-Richtlinien möglichst kohärent zur KI-Strategie der Bundesregierung sind. „Kernanliegen wie die Gemeinwohlorientierung und eine menschenzentrierte KI sind als Ziele in den ersten beiden Prinzipien aufgenommen, aber auch speziellere Aspekte wie beispielsweise die Nutzung sozialen Dialoges zur Gestaltung der Transformation des Arbeitsmarktes“, so die Sprecherin. Die OECD sei „als Organisation von demokratischen Marktwirtschaften“ ein geeignetes Forum, um den Diskurs zu Ethik in KI auch auf globaler Ebene voranzubringen. Der Prozess würde „auch von den umfangreichen analytischen Vorarbeiten des OECD-Sekretariates“ profitieren.

Die Bundesregierung betont, dass die Expertengruppe, die die OECD-Prinzipien erarbeitet hat, erfreulicherweise ein „sehr breites Spektrum“ abgedeckt hatte. Die High-Level-Group der EU-Kommission sah sich zuvor – auch aus den eigenen Reihen – Kritik ausgesetzt, dass ihre Ethikleitlinien von Seiten der Industrie als Abwehrmaßnahme gegen handfeste Regulierung missbraucht würden. Auch weil sich die OECD-Leitlinien explizit an Regierungen richten, scheint die Gefahr des Versandens hier weniger gegeben. Entscheidend wird sein, ob das Konzept des „Peer Pressuring“ innerhalb der OECD aufgeht.

Der vorstehende Artikel erscheint im Rahmen einer Kooperation mit dem Tagesspiegel Politikmonitoring auf UdL Digital. Torben Klausa schreibt als Redakteur zur Digitalpolitik.

 

Schlagworte

Empfehlung der Redaktion