Pressemitteilung Aktuell 28. September 2023

EU: Bundesregierung muss sich bei Verhandlungen zu Künstlicher Intelligenz für Menschenrechte einsetzen

Das Bild zeigt die Nahaufnahme eines Auges in dessen Iris die Buchstaben "KI" stehen.

In einem offenen Brief fordern Amnesty International und AlgorithmWatch von Justizminister Marco Buschmann und Wirtschaftsminister Robert Habeck, bei den laufenden Verhandlungen über die EU-Verordnung zu Künstlicher Intelligenz Schlupflöcher für Hochrisiko-Systeme zu schließen.

Der Brief ist hier zu finden.

Die Europäische Union (EU) muss gefährliche Technologien auf der Grundlage von Künstlicher Intelligenz (KI) verbieten – das fordern Amnesty International und AlgorithmWatch heute in einem gemeinsamen BriefAb dem 2. Oktober verhandeln das EU-Parlament, die EU-Kommission und der Rat der EU über die KI-Verordnung. Vor dem Beginn des Trilogs appellieren Amnesty International und AlgorithmWatch an die Bundesminister Robert Habeck und Marco Buschmann, Schlupflöcher für Menschenrechtsrisken zu schließen.

Markus N. Beeko, Generalsekretär von Amnesty International in Deutschland, sagt: "Die EU muss jetzt eine KI-Verordnung verabschieden, die Menschen vor unverantwortlichem Einsatz Künstlicher Intelligenz schützt. Im Trilog haben die Verhandelnden jetzt die Chance, die Einführung besorgniserregender Schlupflöcher zu verhindern, die es Behörden und Unternehmen ermöglichen würden, sich der Regulierung zu entziehen.

Die Bundesminister müssen jetzt dafür sorgen, dass die Versprechen im Koalitionsvertrag gehalten werden. Gesichtserkennung in öffentlichen Räumen muss konsequent verboten werden. Auch Social Scoring, Emotionserkennung sowie Profiling- und Risikobewertungssysteme für Migrant*innen und Asylsuchende muss durch die EU-Verordnung untersagt werden."

Die Regierungen der EU-Länder wollen den Einsatz von KI für Zwecke der "Nationalen Sicherheit" pauschal von der geplanten Regulierung ausnehmen. Der Begriff der "Nationalen Sicherheit" ist jedoch nicht einheitlich definiert und wird weltweit regelmäßig verwendet, um Menschenrechtsverletzungen zu rechtfertigen.

Auch bei der notwendigen Transparenzpflicht drohen Schlupflöcher. Menschen müssen wissen, wann und wo sie KI-gestützten Entscheidungen ausgesetzt sind. Amnesty International warnt daher dringend davor, ausgerechnet für diejenigen Behörden Ausnahmen von der Transparenzpflicht einzuführen, in deren Zuständigkeitsbereichen die Menschen am verletzlichsten sind. Dazu zählen etwa Polizei- und Migrationsbehörden. Diese sollen laut aktuellen Verhandlungsvorschlägen ihre Hochrisiko-KI nicht in einer EU-Datenbank registrieren. Weder Betroffene noch Zivilgesellschaft und Medien könnten den Einsatz dann wirksam überprüfen.

Die Bundesregierung muss in den Verhandlungen dringend ihre Blockadehaltung gegenüber sogenannter Grundrechts-Folgeabschätzungen (Fundamental Rights Impact Assessments) aufgeben. Diese soll Anwender*innen von Hochrisiko-KI verpflichten, vor dem Einsatz die Auswirkungen auf die Menschenrechte einzuschätzen und ihre Einschätzung transparent zu veröffentlichen.

Technologieunternehmen haben sich während der bisherigen EU-Verhandlungen dafür eingesetzt, Schlupflöcher in die Risikoklassifizierung des Gesetzes einzuführen. Diese würden es den KI-Anbietern ermöglichen, selbst zu entscheiden, ob ihre Technologien als "hochriskant" eingestuft werden.

Hintergrund

Staaten weltweit setzen bereits unregulierte KI-Systeme ein, um zu entscheiden, ob Menschen eine Wohnung, Sozialleistungen, Gesundheitsfürsorge oder Bildung erhalten. 2021 dokumentierte Amnesty International, wie ein von den niederländischen Steuerbehörden eingesetztes KI-System rassistische Profile von Empfänger*innen von Kindergeld erstellt hatte. Das System sollte feststellen, ob bei Leistungsanträgen betrogen wurde, diskriminierte aber zu Unrecht tausende Eltern mit niedrigem Einkommen und Migrationshintergrund.

Weitere Artikel