Foto: AP
Weniger als eine Woche nach einer Beschädigung Bericht ausgesetzt, die erhebliche Mängel im Gesichts-Anerkennung Technologie vermarktet, um der Strafverfolgung durch Amazon, fünf Demokratische Gesetzgeber Aufruf für eine Untersuchung in der gewerblichen und öffentlichen Nutzung und potenziellen Missbrauch der Technologie.
In einem Brief Dienstag, der Gesetzgeber Bedenken über die Verwendung von Gesichtserkennung und seine Auswirkungen auf die Persönlichkeitsrechte, und unterstreicht insbesondere, die “ungleichen Behandlung von Minderheiten-und Migrantinnen-communities in den Vereinigten Staaten.”
“Angesichts der jüngsten Fortschritte in der kommerziellen Gesichts-Anerkennung Technologie—und durch deren erweiterte Nutzung von staatlichen, lokalen und bundesstaatlichen Strafverfolgungsbehörden, insbesondere das FBI und Einwanderung sowie Zoll-und Durchsetzung—wir Sie bitten, zu untersuchen und zu bewerten, die Gesichtserkennung-Industrie und der Regierung verwenden,” der Gesetzgeber schrieb in einem Brief an Gene Dodaro, Leiter der US Government Accountability Office (GAO). Das congressional watchdog Vorherige Forschung in die Gesichtserkennung, die Sie sagte, war maßgeblich an der Aufklärung der öffentlichkeit und dem Kongress “für die Nutzung und den möglichen Missbrauch dieser Technologien.”
Der Brief war unterschrieben von Senator Ron Wyden, Chris Coons, Ed Markey, und Corey Booker, und Jerrold Nadler, das ranking Demokrat auf der House Judiciary Committee.
In einer Liste der Themen, die der Gesetzgeber gefragt, der GAO zu untersuchen, insbesondere die Strafverfolgungsbehörden sind mit der Technologie und wie. Es ist unklar, zum Beispiel, die Agenturen erworben haben, Amazon-Gesichtserkennung-Technologie, bekannt als Rekognition; die Firma, für die client-Seite nur die Identifizierung einer lokalen Strafverfolgungsbehörde mit Namen. Der Gesetzgeber fragte weiter, der GAO zu bewerten, welche Arten von Garantien, falls vorhanden, um zu verhindern, dass Behörden von der Verletzung der verfassungsmäßigen Rechte und der Privatsphäre von Personen ausgesetzt, um die Technologie.
Können Wir Machen Nicht Rassistisch Gesichtserkennung?
Als Unternehmen Rennen zu beschäftigen Gesichtserkennung überall aus der major league ballparks, um Ihre…
Lesen Sie mehr Lesen
Außerdem, die GAO wurde gebeten, zu prüfen, ob die Polizei den Einsatz der Technologie in Bereichen mit vor Beschwerden wegen diskriminierender Polizeiarbeit, wie niedrigem Einkommen oder Minderheiten, und ob das vielleicht “verschärfen Diskriminierung und andere polizeiliche Unterschiede.” Der Gesetzgeber gefragt, der diese Aufgabe mit Bewertung der Gesichtserkennung tatsächlich den Kauf der kommerziellen Produkte zur Verfügung, um Sie zu testen, und zu untersuchen, ob die Programme haben einen “unterschiedlichen Auswirkungen auf bestimmte rassische und ethnische Gruppen.” (Studien haben wiederholt gezeigt, Gesichtserkennung weit weniger genau, wenn verwendet, auf die Menschen mit dunkler Haut.)
Es gibt auch wachsende Besorgnis über das Potenzial der Verkauf der gesammelten Daten durch kommerzielle Gesichts-Erkennungs-software, die ist weit verbreitet, aber oft ohne das wissen oder die Zustimmung der öffentlichkeit. Es offenbart wurde Letzte Woche, zum Beispiel, dass einer Kanadischen shopping-mall war mit Gesichtserkennung, um heimlich verfolgen-Shopper. Die mall, Chinook Centre in Calgary, sagte, es hat nicht erfordern eine Zustimmung, da die software—, die offenbart wurde, um die öffentlichkeit von dem Fehler nicht einfangen oder behalten, Gesichts-Bilder.
Am Donnerstag, dem American Civil Liberties Union, sagte, es habe tests durchgeführt mit Amazon Rekognition von software mithilfe von 25.000 öffentlich zugänglich mugshots und Fotos aller 535 Mitglieder des Kongresses. Nach Angaben der ACLU, Rekognition fälschlicherweise 28 Mitglieder des Kongresses, Auflistung Sie als ein “match” für jemanden, der in der mugshot Fotos. Die Fehlerquote war deutlich höher für nicht-weiße Mitglieder des Kongresses. Amazon stellte fest, in seine Standard-Antwort, die das Vertrauen der Schwelle von 80 Prozent, sondern dass, wenn “sehr genaue Gesicht ähnlichkeit Spiele sind wichtig”, empfiehlt eine Einstellung von 99 Prozent.
Ob Polizei, ausgestattet mit Rekognition sind mit einem 99-Prozent-Schwelle einstellen—und ob das überhaupt wahrscheinlich zu lösen, die der Technologie inhärenten rassische Voreingenommenheit—ist unbekannt. Aber Fehler bei der Identifizierung von verdächtigen könnte tödliche Folgen haben, wie der ACLU von Nord-Kalifornien weist darauf hin: “Wenn die Strafverfolgung mit Amazon Rekognition, es ist nicht schwer vorstellbar, ein Polizist immer ein “match”, der angibt, dass eine person eine vorhergehende verdeckte Waffe zu verhaften, Vorspannung der Offizier, bevor die Begegnung überhaupt beginnt.”
In einem Brief Letzte Woche, Senator Markey und Kongressabgeordneten Luis Gutierrez und Mark DeSaulnier fragte Amazon, um viele der gleichen Fragen, die die GAO wird gebeten, zu untersuchen. “Während die Gesichtserkennung Dienste könnten einen wertvollen law enforcement tool, die Wirksamkeit und die Auswirkungen der Technologie sind noch nicht vollständig verstanden,” die der Gesetzgeber schrieb in einem Brief an Amazon-CEO Jeff Bezos. “In allem ernste Bedenken erhoben worden, über die Gefahren, die Gesichtserkennung darstellen kann, um die Privatsphäre und die Bürgerrechte, vor allem, wenn es verwendet wird, als ein Werkzeug der Regierung, die überwachung, sowie die Genauigkeit der Technologie und deren Einfluss auf Gemeinden der Farbe.” (Bezos hat noch nicht geantwortet auf den Brief.)
Markey, Wyden, und Booker ebenfalls geforderten details aus 39 federal law enforcement Agenturen über den Einsatz von Gesichtserkennung. Während die Technologie kann auch “attraktiv erscheinen”, sagten Sie, es kommt mit inhärenten Risiken”, einschließlich der Kompromittierung der Amerikaner Recht auf Privatsphäre, sowie der Rasse und gender-bias.”
Amazon nicht sofort reagieren auf eine Anfrage für Kommentar.
Lesen Sie den vollständigen Brief von der Demokratischen Gesetzgeber, um die GAO unten.