DEINE SPENDE KANN LEBEN RETTEN!
Mit Amnesty kannst du dort helfen, wo es am dringendsten nötig ist.
DEINE SPENDE WIRKT!
Wir wollen es wissen!
Wir vom Amnesty Journal möchten unser Angebot in Zukunft noch stärker an den Interessen unserer Leser*innen ausrichten. Unsere letzte Umfrage liegt gut zehn Jahre zurück. Zeit für eine Auffrischung.
Was gefällt Ihnen gut? Was können wir besser machen? Was vermissen Sie bei uns?
Wir freuen uns, von Ihnen zu lesen. Vielen Dank!
"Keiner denkt über das Like hinaus"
Bekannt wurde er mit schrillem Make-up oder Anti-Drohnen-Hoodies, die Überwachungssoftware austricksen können. Der US-amerikanische Künstler und Programmierer Adam Harvey Skulpturen im Interview.
Interview: Hannah El-Hitami
In Ihrem Projekt CV Dazzle entwarfen Sie Frisuren und Schminktipps, die vor Gesichtserkennungssoftware schützen. In der Modelinie Stealth Wear entwickelten Sie Kleidung, die den Träger unsichtbar für Wärmebildkameras macht. Welche Tipps haben Sie, um im öffentlichen Raum unsichtbar zu bleiben?
Es geht nicht darum, unsichtbar zu sein, sondern lediglich ein klein wenig unterhalb des Radars zu bleiben. Gesichtserkennungssoftware findet nie eine hundertprozentige Übereinstimmung zwischen zwei Bildern, sondern vielleicht eine 95-prozentige. Wenn man ein verrücktes Make-up oder ungewöhnliche Gegenstände im Gesicht trägt, kann man diese prozentuale Annäherung so weit reduzieren, dass die Software sie gar nicht mehr erkennt.
Sie tragen aber gar kein Camouflage-Make-up.
Ich lasse mich von meinen Sorgen um Überwachung nicht davon abbringen, mein Leben zu genießen. Wäre ich in klandestiner Mission unterwegs, würde ich mich anders kleiden. Aber wenn ich einfach einen Kaffee trinke, dann muss ich die Überwachung bis zu einem gewissen Grad akzeptieren. Es gibt aber auch andere Möglichkeiten, die Daten, die man hergibt, zu reduzieren. Haben Sie zum Beispiel gerade Ihr Handy an?
Ja.
Erwarten Sie einen Anruf?
Nein.
Eben. Es ist nicht immer notwendig, das Handy anzulassen. Damit hinterlässt man eine Brotkrumenspur von Daten. Mein Handy ist oft aus, und die Leute wissen, dass ich nicht immer erreichbar bin. Bluetooth und WLAN auszuschalten, ist auch schon ein erster Schritt.
Wo in der Stadt befinden sich Überwachungs-Hotspots?
Überall dort, wo Touristen sind, weil Menschen dort Fotos machen und sie auf Facebook hochladen. Keiner denkt beim Posten von Bildern über das Like hinaus. Uns wurde vorgetäuscht, dass wir durch das Teilen von Informationen die Welt zu einem besseren Ort machen würden. Stattdessen haben wir die größte Sammlung von Beweismitteln in der Geschichte der Menschheit erschaffen. Alles, was in den sozialen Medien gepostet wird, kann als Beweismittel genutzt werden.
Das kann vor allem im Zusammenhang mit politischem Protest gefährlich werden.
Viele Menschen fotografieren auf Demonstrationen und werden dadurch zu sozialen Überwachungskameras. Wenn du eine Demo besuchst, ist die Wahrscheinlichkeit groß, dass dein Gesicht online gepostet wird. Es gibt Programme von Firmen wie Palantir, die all das Material von Facebook, Twitter oder Instagram in ihre Systeme einspeisen und mit der örtlichen Strafverfolgung zusammenarbeiten. Das Risiko ist groß, dass Menschen festgenommen werden, weil andere sie gefilmt haben.
Sind Corona-Masken dann nicht ein Segen für die Privatsphäre?
Ja. Vorher waren Masken in vielen Großstädten verboten. Einen Großteil der Gesichtserkennung kann man damit blockieren. Doch es gibt auch Ohrerkennungs- und Handerkennungssoftware. Wenn die Auflösung hoch genug ist, wird alles einzigartig.
Einerseits ist es bedenklich, dass Menschen mit ihren Smartphones so viel filmen und fotografieren. Andererseits ist diese Art von Bildmaterial die Grundlage für Ihr neues Programm VFRAME, das Sie in Kooperation mit Syrian Archive und Yemeni Archive entwickeln. Es soll Videos aus Konfliktgebieten nach bestimmten Typen von Munition scannen und so Beweise für Kriegsverbrechen liefern.
Ich wollte schon immer Computer nutzen, um bestehende Machtstrukturen zu unterwandern. Seit drei Jahren arbeite ich an VFRAME, das steht für "Visual Forensics and Meta Data Extraction". Das Bildmaterial wird von Menschen vor Ort aufgenommen. Vieles laden wir von Youtube oder Twitter herunter. Die meisten Videos sind eine oder eineinhalb Minuten lang, oft sieht man sekundenlang dasselbe. Diesen Teil filtert unser Algorithmus direkt heraus, denn er ist unwichtig. Den Rest untersucht ein anderer Algorithmus dann nach bestimmten Dingen.
Nach illegaler Munition wie Fassbomben oder Streubomben?
Ich möchte keine Aufmerksamkeit auf mich ziehen, wenn ich in der Öffentlichkeit darüber spreche, deswegen nenne ich diese Dinge jetzt mal Skulpturen. Einige davon sind nach internationalen Konventionen verboten.
Damit der Algorithmus sie erkennt, muss er erst einmal lernen, wie sie aussehen. Wie gehen Sie vor?
Von den Skulpturen gibt es insgesamt vielleicht fünf Videos, deren Qualität zu schlecht ist, um sie als Trainingsmaterial zu verwenden. Wir müssen also selbst Material basteln. Zusammen mit einem 3D-Designer drucke ich Modelle der Skulpturen, basierend auf der Handvoll Bilder, die wir online finden. Wir bemalen sie und sorgen dafür, dass die Oberfläche etwas abgenutzt aussieht. Dann legen wir sie in eine Umgebung, die realistisch erscheint, werfen etwas Dreck darauf und legen ein paar Steine drum herum. Zurzeit testen wir, ob der Algorithmus die Skulpturen in verschiedenen Situationen erkennt, dafür brauchen wir noch mehr Bildmaterial. Ich bin gespannt, ob es funktioniert.
Dann müssten Ermittler, die Menschenrechtsverletzungen nachgehen, nicht mehr selbst das ganze Bildmaterial durchsehen. Warum ist das wichtig?
Es gibt einfach zu viele Videos, und keiner hat Zeit, sich das alles anzuschauen. Außerdem sieht man darin Gewalt und kann eine posttraumatische Belastungsstörung oder Depressionen bekommen. VFRAME ist wie eine Brücke, die die richtige Nachricht direkt an die richtige Person bringt. Ein Bild, das jemand irgendwo aufgenommen hat, landet auf dem Bildschirm eines Ermittlers und kann dadurch etwas bewirken.
In welchen Ländern könnte VFRAME noch genutzt werden?
Viele meiner Programme habe ich für Konfliktgebiete in Westasien und Nordafrika entwickelt. Aber wenn ich mir die aktuellen Bilder der Proteste in den USA ansehe, erkenne ich Parallelen. Ich überlege also schon, was im US-amerikanischen Kontext die relevanten Objekte sein könnten, nach denen unser Algorithmus suchen müsste. Denkbar wäre ein illegales Symbol, wie zum Beispiel die rassistische Konföderiertenflagge. Aufnahmen davon könnten als Beweismittel verwendet werden.
Würden Sie Technologie eher als Gefahr oder als Chance für die Menschenrechtsarbeit betrachten?
Anstatt darauf zu warten, dass jemand anderes ein Programm entwickelt, möchte ich es selbst tun. Wer zuerst spricht, hat mehr Kontrolle über das Thema. Die Frage ist also eher, wie die Menschenrechtsarbeit die technologische Entwicklung stärker steuern könnte, anstatt von ihr überholt zu werden.
Adam Harvey (39) ist ein US-amerikanischer Forscher und Künstler mit Schwerpunkt Computervision, Privatsphäre und Überwachung. Seit 2016 lebt er in Berlin und ist unter anderem an der Hochschule für Technik und Wirtschaft in Karlsruhe und dem Berliner Weizenbaum Institut tätig. Für sein Programm VFRAME erhielt er 2019 den Award of Distinction der Ars Electronica.
Hannah El-Hitami ist freie Journalistin und lebt in Berlin. Namentlich gekennzeichnete Beiträge geben nicht unbedingt die Meinung von Amnesty International oder der Redaktion wieder.