Amazon Gesichtserkennung Misidentifies 28 Mitglieder des Kongresses, wie verdächtige Kriminelle

Foto: AP

Amazons umstrittene Gesichtserkennung-software, genannt Rekognition, fälschlicherweise mehr als zwei Dutzend Mitglieder des Kongresses, wie Menschen verhaftet für Verbrechen. Die falschen Identifikationen vorgenommen wurden, wenn der ACLU von Nord-Kalifornien beauftragt, Rekognition mit passenden Fotos aller 535 Mitglieder des Kongresses gegen 25,000 öffentlich zugänglich mugshot Fotos. Die test-Kosten der ACLU nur $12.33 zu führen.

Insgesamt Rekognition fälschlicherweise 28 Mitglieder des Kongresses, Auflistung Sie als ein “match” für jemanden, der in der mugshot Fotos. 11 der fälschlicherweise Mitglieder des Kongresses waren people of color, eine höchst alarmierende Unterschiede. Tests haben gezeigt, dass die Gesichtserkennung wird routinemäßig weniger genau auf dunklere Hautfarbe Menschen und Frauen. Für den Kongress als ganzes, der Fehler lag bei nur fünf Prozent, aber für nicht-weiße Mitglieder des Kongresses, der Fehler lag bei 39 Prozent.

Unter denen, die falsch identifiziert wurden sechs Mitglieder des Congressional Black Caucus, der schrieb einen offenen Brief an Amazon-CEO Jeff Bezos im Juni nach der ACLU veröffentlicht interne Dokumente über die Verwendung von Rekognition durch die Polizei.

Amazon ermutigt hat, den Strafverfolgungsbehörden zu erlassen, Rekognition, mit der Polizei in Orlando vor kurzem die Entscheidung zur Fortsetzung Ihrer Piloten von der tech. In einem blog-post, der ACLU von Nord-Kalifornien, USA, erläuterte, wie die Verwechslung in die Hände von Strafverfolgungsbehörden könnte tödlich sein, besonders für Leute der Farbe:

Wenn die Strafverfolgung mit Amazon Rekognition, es ist nicht schwer vorstellbar, ein Polizist immer ein “match”, der angibt, dass eine person eine vorhergehende verdeckte Waffe zu verhaften, Vorspannung der Offizier, bevor die Begegnung überhaupt beginnt.

In einer Erklärung, die von Amazon vorgeschlagenen ACLU, die Ergebnisse mit der software “könnte wahrscheinlich verbessert werden, indem Sie die folgenden best practices” zu sagen, die Firma empfiehlt den Strafverfolgungsbehörden setzen ein Vertrauen Schwelle von mindestens 95 Prozent bei der Entscheidung, ob es eine übereinstimmung gibt. Natürlich, es gibt keine gesetzliche Anforderung für die Polizei zu tun. In Großbritannien, die Polizei in South Wales vor kurzem verteidigte mit Gesicht Anerkennung software mit einer erstaunlichen 90 Prozent false-positive-rate.

Amazon-Anweisung enthalten ist, ganz unten:

Wir haben gesehen, Kunden nutzen die Bild-und video-Analyse Funktionen von Amazon Rekognition in einer Weise, die materiell profitieren sowohl die Gesellschaft (z.B. der Prävention von Menschenhandel, die Hemmung der Ausbeutung von Kindern, die Wiedervereinigung vermisste Kinder mit Ihren Familien, und Bau-Bildungs-apps für Kinder) und Organisationen (Verbesserung der Sicherheit durch multi-Faktor-Authentifizierung, Auffinden von Bildern einfacher-oder die Verhinderung-Paket, Diebstahl). Wir bleiben gespannt, wie Bild-und video-Analyse kann ein Treiber sein für das gute in der Welt, einschließlich der im öffentlichen Sektor und Strafverfolgungsbehörden.

Mit Bezug auf diesen letzten test von Amazon Rekognition durch die ACLU, denken wir, dass die Ergebnisse könnte wahrscheinlich verbessert werden, indem Sie die folgenden best practices rund um die Einstellung, das Vertrauen von Schwellenwerten (diese ist die prozentuale Wahrscheinlichkeit, dass Rekognition fand ein Spiel) im test eingesetzt. Während 80% Vertrauen ist eine akzeptable Schwelle für Fotos von hot dogs, Stühle, Tiere, oder andere social-media-use-cases, die es nicht angemessen wäre für die Identifizierung von Individuen mit einem vernünftigen Maß an Sicherheit. Bei der Verwendung von Gesichtserkennung für Strafverfolgungsmaßnahmen, wir leiten den Kunden einen höheren Schwellenwert von mindestens 95% oder höher.

Schließlich, es ist erwähnenswert, dass in der realen Welt Szenarien, Amazon Rekognition wird fast ausschließlich verwendet, um das Feld eng und ermöglichen es den Menschen, um zügig zu überprüfen, und betrachten Sie Optionen mit Ihrem Urteil (und nicht für voll autonome Entscheidungen treffen), wo es helfen kann, finden verlorene Kinder, einschränken, Menschenhandel oder Verbrechen verhindern.


Date:

by