Amnesty Journal 09. Februar 2022

Bitte recht freundlich!

Zwei Überwachungskameras an einer grauen Hauswand

Sie stellen zahlreiche Gefahren für die Menschenrechte dar: Fragen und Antworten zu biometrischen Verfahren und zur Gesichtserkennung.

Von Ingrid Bausch-Gall

Wie funktioniert Gesichtserkennung?

Gesichtserkennung dient meist zur Iden­tifizierung von Personen. Anhand bestimmter Merkmale des Gesichts kann eine Person ausgemacht werden. Dabei wird ein Bild des Gesichts mit Bildern in einer Datenbank verglichen. So soll festgestellt werden, ob die Person bereits in der Datenbank erfasst ist. Die verwendeten Datenbanken enthalten meist Millionen von Gesichtsbildern, die entweder von Melde- und Strafverfolgungsbehörden stammen oder von Homepages, Facebook oder anderen öffentlich zugänglichen Quellen kopiert wurden, zumeist ohne ­Zustimmung der betreffenden Personen. Bereits die Erstellung der Datenbanken verletzt oft das Recht auf Privatsphäre.

Was haben biometrische Verfahren und Gesichtserkennung gemeinsam, was unterscheidet sie?

Methoden der Gesichtserkennung ge­hören zur Erfassung und Auswertung ­biometrischer Daten. Zusätzlich zur ­Gesichtserkennung erfassen umfassen­dere biometrische Methoden geometrische Daten über Körperbau oder Bewegungsmuster von Personen. Diese Methoden liefern exaktere Ergebnisse als die Gesichtserkennung und lassen sich auch dann anwenden, wenn eine Person vermummt ist oder das Gesicht wegdreht.

Gibt es aktuelle Beispiele dafür, wo Gesichtserkennung angewandt wird?

Am 27. April 2021 hat die Polizei in Moskau die Wohnungen der Journalisten ­Alexej Korosteljow, Oleg Owcharenko und Alexander Rogoz aufgesucht und sie zu ihrer Teilnahme an einer Demons­tration am 21. April für Alexej Nawalny befragt. Bei der Demonstration wurden Teilnehmende gefilmt und diese Filme anschließend mit Gesichtserkennungsmethoden ausgewertet. So lässt sich sehr schnell feststellen, wer wann wo war und mit wem er oder sie gesprochen hat. Die Journalisten wurden als Teilnehmende an der Demonstration identifiziert. Alle waren als Journalisten akkreditiert. ­Dennoch drohen ihnen nun Gefängnisstrafen.

Immer mehr Länder nutzen Gesichtserkennung zur Überwachung des öffentlichen Raums. Diese Technologie wird von der Polizei und von privaten Firmen genutzt.

Welche Gefahren drohen für die ­Menschenrechte?

Gesichtserkennung kann auch für legitime Ziele eingesetzt werden, etwa um Straftäter_innen zu finden. In vielen Bereichen erfolgt jedoch eine anlasslose automatische Überwachung im öffentlichen Raum. Die überwachten Personen wissen nicht, dass sie beobachtet werden. Wenn Gesichtserkennung bei Demonstrationen eingesetzt wird, ist es problemlos möglich festzustellen, wer teilgenommen und mit wem sich die Person dort getroffen hat. Dies kann dazu führen, dass sich Menschen nicht mehr trauen, an Demons­trationen teilzunehmen. Dies bezeichnet man als "chilling effect", und er bedroht die Ausübung des Rechts auf Versammlungs- und Vereinigungsfreiheit sowie die Meinungsfreiheit.

Gesichtserkennung kann von autoritären Regierungen gezielt eingesetzt werden, um Menschenrechtsverteidiger_innen zu überwachen. Zivilgesellschaftliches Engagement wird in einem Land ­extrem erschwert, wenn die Regierung exakt weiß, wer wo ist und wer sich wann mit wem trifft. Die Methoden der Gesichtserkennung sind fehleranfällig. Wenn sie perfekt funktionierten, wären sie in der Lage, ganze Gebiete zu überwachen und die Identität von Hunderttausenden Menschen gleichzeitig zu erfassen. Dies wäre in allen Fällen menschenrechtlich problematisch. Durch das Gefühl, ständig überwacht zu werden, leiden Freiheitsrechte, individuelle Entfaltung und politische Teilhabe.

Behandelt Gesichtserkennung alle ­Gesichter gleich?

In Datenbanken werden besonders viele Gesichter weißer Männer aufgenommen, deutlich weniger Gesichter von Frauen, Kindern und People of Colour. Da die ­Algorithmen mit Methoden der Künstlichen Intelligenz und der Statistik arbeiten, führt das zu einer deutlich höheren Falsch­erkennungsrate bei diesen Personen. Sie werden in der Folge häufiger von der Polizei kontrolliert und verdächtigt. Insbesondere schwarze Frauen sind davon betroffen. Das ist eine eindeutige Form der Diskriminierung.

Gesichter lassen sich zudem durch ­bestimmte Schlüsselmerkmale wie Hautfarbe, ethnische Zugehörigkeit oder ­Geschlecht gezielt erkennen. Vorurteile und strukturelle Ungleichheiten können durch die Anwendung bestimmter Algorithmen verstärkt werden, da die Systeme von Menschen entwickelt und trainiert werden. Auch dies führt zu Diskriminierung.

Mit Gesichtserkennung ist öffentlich ­experimentiert worden. Mit welchem ­Ergebnis?

Experimente mit diesen Systemen haben gezeigt, dass sie oft mangelhaft funktionieren. Bei einem Test am Bahnhof Berlin-Südkreuz wurde etwa jede 200. Person fälschlich als polizeilich gesuchte ­Person identifiziert. Für Betroffene führt das zu Verdächtigungen und unangemessenen Kontrollen, für die Polizei zu einer Überlastung. Daher wurde in den US-amerikanischen Städten Boston, Portland und San Francisco der Einsatz von Gesichtserkennung in der Polizeiarbeit ­verboten.

Was fordert Amnesty?

Amnesty International sieht in jeder anlasslosen Massenüberwachung einen massiven Eingriff in die Privatsphäre. Die Anwendung von Gesichtserkennung im öffentlichen Raum ist nach Auffassung von Amnesty nicht verhältnismäßig, da sie ohne einen Verdacht alle anwesenden Menschen erfasst und analysiert. Amnesty fordert daher ein vollständiges Verbot der Gesichtserkennung zu Zwecken der Identifizierung. Um Diskriminierung entgegenzuwirken und der Vielfalt in der ­Gesellschaft gerecht zu werden, fordert Amnesty eine unabhängige Überprüfung aller Algorithmen der verwendeten Systeme sowie Entwicklerteams, die die gesellschaftliche Vielfalt widerspiegeln.

Eine weitere Gefahr besteht in der Verbreitung von Technologie zur Gesichtserkennung. Europäische Unternehmen konnten Gesichtserkennungs- und andere Überwachungstechnologie ohne staatliche Exportkontrolle in Länder ­verkaufen, in denen diese gegen mar­ginalisierte Bevölkerungsgruppen zum Einsatz kommt. Damit steigt das Risiko schwerer Menschenrechtsverletzungen. Amnesty fordert ein grundsätzliches ­Verbot der Entwicklung, der Produktion, des Verkaufs und des Exports von Gesichtserkennungstechnologie zu Iden­tifizierungszwecken, das sowohl für ­staatliche Institutionen als auch für ­private Akteure gilt. Solange dieses Verbot nicht wirksam ist, müssen Staaten den Export solcher Technologien rigoros verhindern. Unternehmen müssen da­rüber hinaus verpflichtet werden, vor ­einem etwaigen Export im Rahmen ihrer menschenrechtlichen Sorgfaltspflichten umfassende Risiko­analysen durchzu­führen.

Gibt es Erfolge beim Einsatz gegen die Gesichtserkennung?

Ein kleiner Erfolg wurde inzwischen erreicht: Am 6. Oktober 2021 hat das EU-­Parlament dazu aufgerufen, biometrische Massenüberwachung zu verbieten.

Ingrid Bausch-Gall ist in der Amnesty-Themenkoordinationsgruppe Menschenrechte im ­digitalen Zeitalter aktiv.

Weitere Artikel