Künstliche Intelligenz:

Entscheidungen aus der Konservendose?

Foto: CC BY 2.0 Flickr User Bovee and Thill. Bildname: Artificial Intelligence. Ausschnitt bearbeitet.

Welche Hürden hat die deutsche Politik in Hinblick auf Künstliche Intelligenz (KI) zu meistern und wie kann man auch auf globaler Ebene sicherstellen, dass KI’s bestimmten ethischen Maßstäben genügen? Über diese und weitere Fragen diskutierten Wissenschaftler, Politiker und Politikerinnen, Studierende und Interessierte bei der Veranstaltung „The Human Touch – Ethik und Künstliche Intelligenz“ am 1. Juni im Auswärtigen Amt (AA). Mitgetragen wurde die Veranstaltung von MENSCHEN BEWEGEN und der re:publica. Prominente Speaker waren u.a. Thomas Fitschen, seit August 2015 Beauftragter der Bundesregierung für die Vereinten Nationen und Cyber-Außenpolitik im AA, Philippe Lorenz, Projektleiter Künstliche Intelligenz und Außenpolitik bei der Stiftung Neue Verantwortung (SNV), die SPD-Abgeordnete und Informatikern Saskia Esken und Lorena Jaume-Palasí, Geschäftsführerin von AlgorithmWatch.

In jedem Land eine andere Diskussion

Die Antwort auf die Frage, ob Deutschland mit seiner Cyber-Außenpolitik und den richtigen Rahmenbedingungen auch auf globaler Ebene ethische Maßstäbe in Bezug auf KI setzen kann fiel von Thomas Fitschen und Philippe Lorenz eher nüchtern aus: In jedem Land werde die Diskussion über KI und deren ethischen Grundlagen anders geführt, verdeutlichte Fitschen. Eine internationale Diskussion finde höchstens auf europäischer Ebene statt, aber im Prinzip ende die deutsche KI-Ethik an der deutschen Grenze.

Lorenz bestätigte diese Auffassung und bemängelte:

„Ich halte eine nationale Strategie für überhaupt nicht ausreichend“.

Zwar gebe es auf europäischer Ebene eine Strategie für KI, doch werde die Debatte unehrlich geführt. Bestimmten europäischen Defiziten wie etwa die fehlende Hardware-Infrastruktur und Europas Angewiesenheit auf Cloud-Plattformen aus den USA, werde nicht ins Auge geblickt. Auch Daten beziehe man größtenteils von den großen Tech-Giganten aus den USA und nicht von hier. Gerade vor dem Hintergrund eines möglichen Handelskonflikts zwischen Europa und den USA wäre es wichtig, eine ehrliche Diskussion über die Stärken und Schwächen Europas in Bezug auf KI zu führen, so Lorenz.

KI und Waffen

Auf internationaler Ebene stünden auf der einen Seite die sehr technologiegläubigen Länder USA und China und auf der anderen Seite viele kleine „blockfreie“ Staaten, die präventiv auf die Technik reagierten. Wo befindet sich Deutschland in diesem Kosmos? Ähnlich wie in Frankreich erkenne man die KI hier zunächst einfach an und versuche zu beschreiben, womit man es zu tun habe, so Fitschen.

„In einzelnen Bereichen allerdings, wo KI schon angewandt wird wie etwa bei teilautonomen Waffen, versucht man in Deutschland bereits Dinge zu regulieren und sich auch in Bezug auf KI an dem bestehenden Kriegsrecht zu orientieren“.

Frankreich und Deutschland hatten sich in den letzten Jahren im Rahmen der UN-Waffenkonvention dafür stark gemacht, letale autonome Waffensysteme (LAWS), also Killer-Roboter, präventiv zu verbieten. Die USA hingegen hatten diesbezüglich deutlich gemacht, dass sie sich einem derartigen präventivem UN-Verbot nicht unterwerfen würden. Das zeige, wie beschränkt die Wirkungsmöglichkeiten Deutschland jenseits der Grenzen sind, so Fitschen.

Neben Transparenz auch Vertrauen nötig

Darüber, welche Trainingsdaten für KI verwendet werden und mögliche Diskriminierungseffekte, die damit einhergehen können,diskutierten u.a. Lorena Jaume-Palasí, Geschäftsführerin von AlgorithmWatch, und die SPD-Abgeordnete und Informatikerin Saskia Esken.

„Wir müssen nicht nur die KI verstehen, sondern auch die Daten“, sagte Jaume-Palasí und fügte hinzu: „Am Ende ist der Datenwissenschaftler die eierlegende Milchsau.“

Dass in jede KI eine Entscheidung schon hinein programmiert wird und es somit immer eine Entscheidung aus der Konservendose ist, darüber müsse man sich im Klaren sein, so die AlgorithmWatch-Gründerin.

Esken stimmte darin überein, dass es in unserer Hand liege, für möglichst objektive, die Wirklichkeit abbildende Daten-Sets zu sorgen, mit denen die KI arbeiten kann. Allerdings bräuchten wir neben Transparenz auch Vertrauen.

„Beim Arzt können wir ja schließlich auch nicht genau nachvollziehen, wie er zu seiner Diagnose kommt. Wir vertrauen seiner Ausbildung und Qualifizierung.“

Deshalb plädierte Esken für die Einrichtung unabhängiger Stellen, die dann Algorithmen-TÜVs genannt werden könnten, und welche die Eignung von Daten sicherstellen.