In den Vereinigten Staaten häufen sich Klagen gegen die Verwendung von Gesichtserkennung durch die Polizei zur Festnahme von Personen. Die jüngste Erhebung, die im August 2023 in Detroit eingereicht wurde, ist der sechste Fall in den letzten drei Jahren.
Die Demütigung, zu Unrecht verhaftet zu werden, weil eine künstliche Intelligenz (KI) einen Fehler gemacht hat, ist natürlich ein schreckliches Ereignis, das verheerende Folgen für eine Person haben kann.
Dies gilt umso mehr, wenn die fälschlicherweise erhobenen Beschuldigungen nicht rechtzeitig entdeckt werden und dem Opfer eine Haftstrafe droht.
Auf der anderen Seite behaupten Befürworter dieser Technologie, dass sie den Strafverfolgungsbehörden zu einer wesentlich höheren Effizienz verholfen hat.
Diese Probleme können durch die Beseitigung einiger Softwarefehler oder die regelmäßige Nutzung von hochauflösendem Bildmaterial behoben werden.
Wie ethisch ist es jedoch, die KI-Technologie zur Gesichtserkennung (engl. Facial Recognition Technology, FRT) weiter zu „testen“ und Menschen zu verhaften, die möglicherweise unschuldig sind?
Welche ethische Bedeutung hat der Einsatz von KI-Gesichtserkennung im Allgemeinen, wenn man bedenkt, wie sehr sie eine ständige Verletzung unserer Privatsphäre darstellt, weil sie jederzeit die Möglichkeit bietet, Personen ohne deren Zustimmung zu identifizieren?
Zunächst wollen wir uns den bisher entstandenen Schaden ansehen.
Fehler bei der Gesichtserkennung in der Vergangenheit
Eine Schwangere, 2023
Der jüngste Fall, in dem die FRT eine Person falsch identifiziert hat, ereignete sich Anfang dieses Jahres in Detroit. Zu allem Überfluss war das Opfer, die 32-jährige Porsha Woodruff, zu diesem Zeitpunkt im achten Monat schwanger.
Woodruff wurde vor den Augen ihrer beiden Töchter (6 und 12 Jahre alt) verhaftet und musste einen Tag auf dem Polizeirevier verbringen. In der Folgezeit fühlte sie sich gestresst und unwohl und begab sich in ein medizinisches Zentrum, wo sie erste Wehen bekam.
Die Ärzte stellten eine Dehydrierung und eine niedrige Herzfrequenz bei ihr fest. Nicht die beste Weise, einige der heikelsten Tage der Schwangerschaft zu verbringen.
Woodruff war nicht das einzige Opfer von FRT-Fehlern.
Falsche Anschuldigungen auf Basis unscharfen Überwachungsvideos, 2020
Im Januar 2020 wurde Robert Williams beschuldigt, fünf Uhren im Wert von 3.800 $ gestohlen zu haben.
Die Polizei von Detroit hatte lediglich ein paar unscharfe Überwachungsbilder benötigt, um den Mann zu verhaften, der in Handschellen vor den Augen aller Nachbarn auf seinem Rasen lag, während seine Frau und seine beiden kleinen Töchter nur verzweifelt zusehen konnten.
Theoretisch durften Übereinstimmungen bei der Gesichtserkennung nur als Ermittlungsgrundlage verwendet werden, nicht aber als einziger Beweis, um Williams eines Verbrechens anzuklagen.
Der Polizei reichte dies jedoch aus. Sie verhaftete ihn ohne weitere Beweise, auch wenn sich am Ende herausstellte, dass Williams zum Zeitpunkt des Überfalls auf dem Heimweg von der Arbeit war.
Weiteres Nachforschen wird uns zeigen, dass es sich nicht um Einzelfälle handelt. Es gab eine Reihe ähnlicher Probleme im Laufe der Jahre.
Falsche ID als Grund für eine unrechtmäßige Festnahme, 2019
Im Jahr 2019 ließ ein Ladendieb einen gefälschten Führerschein aus Tennessee am Tatort in Woodbridge, New Jersey, zurück, nachdem er Süßigkeiten gestohlen hatte.
Als der geklaute Ausweis mit einem Scanner zur Gesichtserkennung überprüft wurde, konnte Nijeer Parks als „hochprozentige“ Übereinstimmung identifiziert werden.
Er wurde verhaftet, und da er bereits wegen Drogenvergehen verurteilt worden war und ihm eine doppelte Haftstrafe drohte, überlegte er, ob ein Geständnis die bessere Lösung wäre.
Zu seinem Glück bewies er schließlich seine Unschuld, als er eine Quittung für eine Geldüberweisung von Western Union fand, die zur gleichen Stunde wie der Ladendiebstahl stattfand – an einem Ort, der 30 Meilen von dem Geschenkeladen entfernt war.
Nach Angaben von Strafverteidigern ist es kein Einzelfall, dass zu Unrecht durch Gesichtserkennung beschuldigte Personen Zugeständnisse machen, auch wenn sie unschuldig sind.
Der Sockenfall in NY: 6 Monate Haft wegen möglicher Übereinstimmung
2018 wurde ein anderer Mann beschuldigt, ein Paar Socken aus einem T.J. Maxx-Geschäft in New York City gestohlen zu haben.
Der gesamte Fall beruhte auf einem einzigen, unscharfen Sicherheitsvideo, das Monate nach dem Vorfall eine „mögliche Übereinstimmung“ ergab.
Als ein Zeuge bestätigte, dass „er der Mann war“, verbrachte der Angeklagte sechs Monate im Gefängnis, bevor er als schuldig erklärt wurde – obwohl er immer noch seine Unschuld beteuert.
Das Argument der Verteidigung? Der Mann war zum Zeitpunkt des Verbrechens tatsächlich in einem Krankenhaus wegen der Geburt seines Kindes registriert.
In einigen der oben genannten Fälle wurde anhand eines Gegenbeweises belegt (in zwei Fällen erfolgreich, in dem anderen nicht), dass der Angeklagte weit vom Tatort entfernt war.
Nicht jeder wird jedoch so viel Glück haben.
Mit anderen Worten: Die bisher bekannten Fälle umfassen möglicherweise nur einen kleinen Teil der unschuldigen Personen, die derzeit im Gefängnis sitzen oder denen aufgrund einer falschen Gesichtserkennung eine Haftstrafe droht.
„Regulieren“ vs. „Verbieten“
Wie so oft im Leben geht es auch bei den obigen Beispielen eher darum, wie man Werkzeuge einsetzt, als um die Werkzeuge selbst.
In vielen Situationen verwenden die Strafverfolgungsbehörden FRT als einziges Beweismittel, um Personen ins Gefängnis zu bringen, anstatt die potenzielle Erkennung als einfache Spur in einem breiteren Ermittlungsprozess zu nutzen.
Sherlock Holmes hätte die Technologie vielleicht begrüßt. Er würde aber seine Zeit damit verbringen, die Beweise zu analysieren, bevor er sie als Tatsache ansieht.
Es gibt ein viel schwerwiegenderes Problem, das diese Technologie sehr voreingenommen und ihre Verwendung bestenfalls umstritten macht.
2019 veröffentlichte das National Institute of Standards and Technology (NIST) eine Studie, in der immer mehr Beweise dafür gefunden wurden, dass FRT mit erheblichen rassistischen Verzerrungen verbunden ist.
Häufig, wenn nicht sogar regelmäßig, werden Menschen mit dunklerer Hautfarbe, Jüngere und Frauen von KI falsch identifiziert. Das Risiko einer Fehlidentifizierung ist bei Asiaten und Afroamerikanern 100 Mal höher. Bei amerikanischen Ureinwohnern ist es noch größer.
Demografische Unterschiede wie Alter und Geschlecht tragen ebenfalls dazu bei. Dieses Missverhältnis kann bei einigen weniger präzisen Systemen noch deutlicher hervortreten.
Neben den massiven Bedenken, dass FRT in unverhältnismäßiger Weise auf Menschen bestimmter Ethnien abzielt, könnte der Einsatz dieser Technologie die Privatsphäre und die bürgerlichen Freiheiten verletzen.
Bei der öffentlichen Echtzeit-Überwachung werden Personen ohne ihre Zustimmung identifiziert, und aggregierte Datenbanken werden oft ohne jegliche Vorschriften zur Definition ihrer Rechtmäßigkeit erstellt.
Biometrische Daten können viel zu leicht und heimlich erfasst und für alle möglichen Zwecke verwendet werden, einschließlich einer übergreifenden Kontrolle unseres Privatlebens, die viele von uns wahrscheinlich als inakzeptabel empfinden.
Durch technische Schwachstellen kann das aufgenommene Bildmaterial für alle möglichen böswilligen Aktivitäten genutzt werden: Identitätsdiebstahl, Deepfakes, physische oder digitale Fälschungen und sogar Belästigungen.
Diese Grenzen können mit der Zeit überwunden werden. Solange jedoch Richtlinien entwickelt werden, die den Einsatz von FRT reglementieren, werden immer noch unschuldige Menschen verfolgt.
Einige Städte, wie z. B. San Francisco, haben der Polizei und anderen Behörden die Gesichtserkennung gänzlich untersagt. Viele argumentieren, dass dies die einzige Lösung für dieses Problem sein könnte.
Fazit
Der Einsatz von FRT zu Strafverfolgungszwecken ist ein sehr kontroverses Thema. Zweifellos ist es ein großartiges Instrument zur Erkennung von Gefahren, wenn es auf eine schnelle Reaktion ankommt, wie z. B. beim Aufhalten von Terroristen oder bei der Gewährleistung der Flughafensicherheit.
Viele sind jedoch der Meinung, dass diese Technologie einen inakzeptablen Eingriff in das Privatleben darstellt und dass die ständige Überwachung durch neugierige Augen einer Regierung ein gefährliches Szenario ist.
Sicher ist, dass diese Technologie in ihrem derzeitigen Zustand noch nicht einsatzbereit ist – zumindest nicht ohne das Risiko ernsthafter Auswirkungen.
Doch die mangelnde Bereitschaft ist nicht nur auf die technischen Grenzen der FRT zurückzuführen, sondern auch auf den unangemessenen Gebrauch, den die Menschen davon machen.
Anders ausgedrückt: Damit die FRT der Gerechtigkeit dienen kann, brauchen wir ein solides Paket von Gesetzen und Regeln, um sie zu regulieren. Wer überwacht die Wächter?