Foto: AP
Tage nach der ACLU veröffentlichte einen vernichtenden Bericht über Amazon Gesichtserkennung Produkt Rekognition, Amazon , general manager von AI, Dr. Matt Wood, konterte seine Erkenntnisse in einem blog-post. Die ACLU verwendet Rekognition zum Scannen der Gesichter aller 535 Mitglieder des Kongresses, finden die software verwechselte 28 von Ihnen für den mutmaßlichen kriminellen. Dr. Holz zunächst einmal fest, dass die ACLU nicht offenbart, deren Methodik oder ein dataset im Bericht, dann durchbricht Amazon die original-Antwort—, dass es regt mehr Vertrauen Schwellenwerte für die Strafverfolgung.
Auffällig fehlt, aus dem blog, allerdings war eine konkrete Widerlegung der enormen rassischen Unterschiede aufgedeckt, die von der ACLU. Für den Kongress als ganzes, der Fehler lag bei nur fünf Prozent, aber für nicht-weiße Mitglieder des Kongresses, der Fehler lag bei 39 Prozent. Wenn man Zentren diese rassische Ungleichheit, wie der blog-post nicht, Dr. Wood ‘ s Letzte Punkt liest sich wie ein argument gegen die Gesichtserkennung Verwendung durch die Strafverfolgungsbehörden Großhandel.
Er schreibt:
“Neben einer Einstellung das Vertrauen Schwelle viel zu niedrig, die Rekognition Ergebnisse deutlich verzerrt durch die Verwendung einer Gesichts-Datenbank, die entsprechend nicht repräsentativ, selbst verzerrt ist. In diesem Fall ACLU verwendet eine Gesichtsbehandlung Datenbank von Fahndungsfotos, die gehabt haben können, einen wesentlichen Einfluss auf die Genauigkeit der Rekognition Erkenntnisse.”
Lassen Sie uns brechen diese nach unten.
Wenn eine Agentur zu Scannen, eine Gruppe von Menschen gegen eine Datenbank der Aufbau der Datenbank wird natürlich Auswirkungen auf das Ergebnis. Eine Datenbank mit Gesichtern, stammen aus Guadalajara werden wahrscheinlich nicht nützlich sein, wenn Sie Scannen mit Flächen in einem Einkaufszentrum im US-Bundesstaat Wisconsin. Dr. Holz argumentiert, dass die Verhafteten Datenbank der ACLU gescannt Kongress-Mitglieder gegen könnte selbst wurden verzerrt oder falsch dargestellt werden.
Aber, hier ist, was wissen wir über die Gesichter der Menschen in Amerika verhaftet: Sie neigen in Richtung dunkler. Für congresspeople, Sie neigen leichter. Wenn dem überdurchschnittlich hohen Anteil von dunkelhäutigeren Menschen im mugshot-Datenbanken eine Rolle gespielt in der Staffelung der Rasse Unterschiede in der ACLU Ergebnisse, das gleiche argument kann gemacht werden, fast jederzeit Strafverfolgungsbehörden durchsucht Menschen gegen “schiefe” strafrechtlicher Datenbanken.
Wood ‘ s blog spiegelt die Schwierigkeit, über Silicon Valley, greifen die Art und Weise statistische Verzerrungen (der über/unter-Darstellung der unterschiedlichen Hauttöne Auswirkungen auf die Genauigkeit aus) überschneidungen mit rassischen Vorurteile (Gesichtserkennung verwendet, um abet voreingenommenen Polizei-Systeme). Sie füttern sich gegenseitig. Dunklere Hautfarbe Menschen sind verhaftet mehr, erscheinen in Straf Datenbanken, und somit aufeinander abgestimmt sind mehr. Diese überrepräsentierung gegeben ist und lange vor der Normalisierung der Gesichtserkennung in der Strafverfolgung.
Ehrlich gesagt, es ist ein argument gegen alle, Gesichtserkennung, da kriminelle Datenbanken sind nicht, und nie gewesen, perfekt Vertreter von entweder den USA zu groß oder Mitglieder des Kongresses.
Der blog endet durch Vorschläge für Schutzmaßnahmen für die Gesichtserkennung in den Händen der Strafverfolgungsbehörden, ähnlich denen, die argumentiert, die von Microsoft president Brad Smith. Erstens, Amazon empfiehlt Strafverfolgung nur handeln entspricht mit 99 Prozent Konfidenzniveau, höher als 80 Prozent in die Studie ein. Smith in ähnlicher Weise vorgeschlagen, eine minimale Schwelle für die Strafverfolgung. Dies sind Empfehlungen, aber keine Regeln. Konnte nicht von Amazon lehnen eine Verlängerung der Verträge für Agenturen, die mit niedrigeren Schwellenwerte? Warum rest in einfach eine “Empfehlung?”
Endlich, der post endet mit den Worten Rekognition sollte “eine Eingabe über andere, die Sinn machen” und ersetzen nicht menschliches Urteil, sondern “den Menschen erlauben, um zügig zu überprüfen, und betrachten Sie Optionen mit Ihrem Urteil (und nicht für voll autonome Entscheidungen).” Sicher. Das ist sehr sinnvoll—es sei denn, du bist die person, zu erklären, zu einem Offizier, dass Sie nicht, der computer sagt, Sie sind.
Die Annahme der hyper-Rationalität und vorurteilsfreien Denkens, in der jeder Offizier mit Zugriff auf diese Technologie spricht, um größere Missverständnisse, wie Rennen, bias -, und Technologie schneidet, wobei der Preis letztendlich bezahlt durch die Menschen ignoriert, die in dieser Art von Verteidigung.