zum Hauptinhalt
Nur handverlesene und bequeme Regeln? Der deutsche Philosoph Thomas Metzinger, Mitglied der EU-Kommission, die Ethikregeln für Künstliche Intelligenz vorgelegt hat, sagt: Es handelt sich um eine ethische Waschmaschine.
© imago images / Cord

EU-Ethikrichtlinien für Künstliche Intelligenz: Nehmt der Industrie die Ethik weg!

Die EU hat Ethikrichtlinien für den Umgang mit Künstlicher Intelligenz erarbeiten lassen. Und hat dabei versagt, wie ein Kommissionsmitglied sagt.

Die EU-Kommission hat am Montag Ethikrichtlinien für Künstliche Intelligenz veröffentlicht. Thomas Metzinger ist Professor für theoretische Philosophie an der Universität Mainz und war Mitglied der Expertengruppe, die die Richtlinien im Auftrag der EU-Kommission erarbeitet hat. In diesem Gastbeitrag kritisiert er das Ergebnis scharf.

Read the English version of this op-ed here.

Es sind wirklich gute Nachrichten: Europa hat gerade die geistige Führung in der heiß umkämpften globalen Debatte um den ethisch richtigen Umgang mit der Künstlichen Intelligenz übernommen. Am Montag hat die EU-Kommission in Brüssel ihre "Ethics Guidelines for Trustworthy AI" vorgestellt. Neun Monate hat die 52-köpfige High-Level Expert Group on Artificial Intelligence (HLEG AI), der auch ich angehöre, an dem Text gearbeitet. Herausgekommen ist ein Kompromiss, auf den ich nicht stolz bin – und der gleichzeitig das Beste ist, was es weltweit zum Thema gibt. Die USA oder China haben nichts Vergleichbares. Wie passt das zusammen?

Künstliche Intelligenz kann nicht vertrauenswürdig sein

Der zugrundeliegende Leitgedanke einer „vertrauenswürdigen KI“ ist zunächst schon mal begrifflicher Unsinn. Maschinen sind nicht vertrauenswürdig, nur Menschen können vertrauenswürdig sein – oder eben auch nicht. Wenn ein nicht vertrauenswürdiger Konzern oder eine nicht vertrauenswürdige Regierung sich unethisch verhält und in Zukunft eine gute, robuste KI-Technologie besitzt, dann kann er oder sie sich noch besser unethisch verhalten.

Die Geschichte von der Trustworthy AI ist eine von der Industrie erdachte Marketing-Narrative, eine Gute-Nacht-Geschichte für die Kunden von morgen. In Wirklichkeit geht es darum, Zukunftsmärkte entwickeln und Ethikdebatten als elegante öffentliche Dekoration für eine groß angelegte Investitionsstrategie zu benutzen. Zumindest ist das der Eindruck, der sich mir nach neun Monaten Arbeit an den Richtlinien aufdrängt.

In der Ethik-Kommission zur Künstlichen Intelligenz der EU-Kommission waren kaum Ethiker involviert

Die Zusammensetzung der Gruppe, die sie erarbeitet hat, ist Teil des Problems: Sie bestand aus vier Ethikern und 48 Nicht-Ethikern – nämlich Vertretern aus der Politik, den Universitäten, der Zivilgesellschaft und vor allem aus der Industrie. Das ist so, als würden Sie mit 48 Philosophen, einem Hacker und drei Informatikern (von denen zwei immer gerade in Urlaub sind) einen topmodernen, zukunftssicheren KI-Großrechner zur Politikberatung bauen. Wer immer für die extreme Industrielastigkeit der Gruppe verantwortlich war, hatte aber in mindestens einem Punkt Recht. Wenn man will, dass die europäische KI-Industrie sich an ethische Regeln hält, dann muss man ihr auch wirklich zuhören und sie von Anfang an mit ins Boot holen. Es gibt viele kluge Leute dort, man darf ihnen aber nicht das Ruder überlassen.

Rote Linien wurden entschärft

Als Mitglied der Expertengruppe bin ich insgesamt sehr enttäuscht von dem nun präsentierten Ergebnis. Die Richtlinien sind lauwarm, kurzsichtig und vorsätzlich vage. Sie übertünchen schwierige Probleme („explainability“) durch Rhetorik, verletzen elementare Rationalitätsprinzipien und sie geben vor, Dinge zu wissen, die in Wirklichkeit einfach niemand weiß.

Zusammen mit dem ausgezeichneten Berliner Machine-Learning-Experten Urs Bergmann (Zalando) war es meine Aufgabe, in monatelangen Gesprächen die „Red Lines“ zu erarbeiten – also nicht-verhandelbare ethische Prinzipien, die festlegen, was in Europa mit KI nicht gemacht werden darf. Der Einsatz von tödlichen autonomen Waffensystemen war ein naheliegender Punkt auf unserer Liste, ebenfalls die KI-gestützte Bewertung von Bürgern durch den Staat (Social Scoring) und grundsätzlich der Einsatz von KI, die Menschen nicht mehr verstehen und kontrollieren können

Dass all dies gar nicht wirklich erwünscht war, habe ich erst verstanden als mich der freundliche finnische HLEG-Präsident Pekka Ala-Pietilä (ehemals Nokia) mit sanfter Stimme gefragt hat, ob wir die Formulierung „nicht verhandelbar“ nicht doch aus dem Dokument streichen könnten? Im nächsten Schritt haben viele Industrievertreter und die an einer „positiven Vision“ interessierten Gruppenmitglieder vehement darauf bestanden, dass das Wort „Red Lines“ im ganzen Text löschen – obwohl ja genau diese roten Linien unser Arbeitsauftrag waren. Wenn Sie sich das Dokument nach der heutigen Veröffentlichung anschauen, werden Sie keine roten Linien mehr finden. Drei wurden komplett gelöscht, der Rest wurde verwässert und stattdessen ist nur noch die Rede von „critical concerns“. Das passt ins Bild.

Die Industrie baut eine "Ethik-Waschmaschine" nach der anderen

Ich beobachte derzeit ein Phänomen, das man als „ethics washing“ bezeichnen kann. Das bedeutet, dass die Industrie ethische Debatten organisiert und kultiviert um sich Zeit zu kaufen – um die Öffentlichkeit abzulenken, um wirksame Regulation und echte Politikgestaltung zu unterbinden oder zumindest zu verschleppen. Auch Politiker setzen selbst gerne Ethik-Kommissionen ein, weil sie selbst einfach nicht weiterwissen – und das ist ja auch nur menschlich und ganz und gar nachzuvollziehen. Die Industrie baut aber gleichzeitig eine „Ethik-Waschmaschine“ nach der anderen: Facebook hat in die TU München investiert – in ein Institut, das KI-Ethiker ausbilden soll, Google hatte die Philosophen Joanna Bryson und Luciano Floridi für ein „Ethics Panel“ – das Ende vergangener Woche überraschend eingestellt wurde - engagiert. Wäre das nicht so gekommen, hätte Google über Floridi - der auch Mitglied der HLEG AI ist - direkten Zugriff auf den Prozess bekommen, in dem die Gruppe ab diesem Monat die politischen und die Investitionsempfehlungen für die Europäische Union erarbeitet. Das wäre ein strategischer Triumph des amerikanischen Großkonzerns gewesen. Weil die Industrie viel schneller und effizienter ist als die Politik oder die Wissenschaft, besteht das Risiko, dass wir nach „Fake News“ jetzt auch ein Problem mit Fake-Ethik bekommen. Inklusive jeder Menge Nebelkerzen, hochbezahlter Industriephilosophen, selbsterfundener Gütesiegel und nicht-validierter Zertifikate für „Ethical AI made in Europe“.

Die EU-Kommission hat ihre Richtlinien weichspülen lassen. Wer kann jetzt noch ernstzunehmende Regeln entwickeln? China? Die USA? 

Wer könnte jetzt noch ethisch überzeugende „Rote Linien“ für die KI entwickeln? Eigentlich könnte es nur die neue EU-Kommission sein, die nach dem Sommer ihre Arbeit beginnt. Das Amerika von Donald Trump ist moralisch diskreditiert bis auf die Knochen, es hat sich selbst aus dem Spiel genommen. Und China? Ist zwar weit vorn, was das Aushorchen seiner 1,4 Milliarden gläsernen Bürger angeht, und mit Blick auf die KI-Sicherheit  könnte es – das muss man sehen - als totalitärer Staat jedwede Richtlinie auch verbindlich durchsetzen. Aber echte Ethik?

Genau wie in Amerika gibt es auch hier viele kluge Leute im Land. Aber als digitaler „Totalitarismus 2.0“ ist China natürlich keine irgendwie akzeptable Adresse ernstgemeinte Diskussionen. Deshalb trägt Europa jetzt die Last einer echten historischen Verantwortung

Nehmt der Industrie die Ethik wieder weg!

Feststeht: Wir können es uns nicht leisten, diese Technologie politisch auszubremsen oder nicht weiter zu entwickeln. Weil gute KI aber ethische KI ist, haben wir jetzt auch eine moralische Verpflichtung, die Guidelines der High-Level Group selbst aktiv weiterzuentwickeln. Bei aller Kritik an ihrer Entstehung – die Ethik-Leitlinien, die wir uns in Europa gerade erarbeiten, sind trotzdem die beste Plattform für die nächste Phase der Diskussion, die wir je hatten. China und die USA werden sie genau studieren.

Ihre juristische Verankerung in europäischen Grundwerten ist ausgezeichnet. Die erste Auswahl der abstrakten ethischen Prinzipien ist zumindest passabel, nur die echte normative Substanz auf der Ebene von Langzeitrisiken, konkreten Anwendungen und Fallbeispielen wurde zerstört. Der erste Schritt ist gut. Aber es ist höchste Zeit, dass die Universitäten und die Zivilgesellschaft sich den Prozess zurückerobern und der Industrie die selbst-organisierte Diskussion wieder aus der Hand nehmen.

Alle spüren es: Wir befinden uns in einem rasanten historischen Übergang, der auf vielen Ebenen gleichzeitig stattfindet. Das Zeitfenster, innerhalb dessen wir ihn zumindest teilweise kontrollieren und die philosophisch-ethischen Grundlagen der europäischen Kultur noch wirksam verteidigen können, wird sich in wenigen Jahren schließen. 

Dieser Gastbeitrag erschien zuerst in unserem Entscheider-Briefing Digitalisierung und KI. Mehr zu unseren täglichen Briefings hier.

Thomas Metzinger

Zur Startseite