Können Wir Machen Nicht Rassistisch Gesichtserkennung?

Abbildung: Angelica Alzona

Als Unternehmen Rennen zu beschäftigen Gesichtserkennung überall aus der major league ballparks zu Ihrem lokalen schul-und Sommercamp -, stehen wir vor schwierigen Fragen über die Technologie das Potenzial, verstärken rassistische Vorurteile; Kommerzielle software für die Gesichtserkennung hat sich wiederholt gezeigt werden, dass es weniger genau auf die Menschen mit dunkler Haut, und civil rights-Befürworter befürchten, aufwühlend gezielte Möglichkeiten, die Gesicht-Scans kann verwendet werden, durch die Polizei.

Dennoch, diese Systeme weiter zu Rollen, sich auf dem Land inmitten der Zusicherung, dass genauere algorithmen sind auf dem Weg. Aber ist die Umsetzung wirklich nicht rassistisch (im Gegensatz zu der gerade “colorblind”) Gesichtserkennung wirklich möglich? Um diese Frage zu beantworten, Sprachen wir mit Experten der Gesichtserkennung, der Rasse, und die überwachung, und bat Sie, zu überlegen, ob wir jemals Beseitigung der technischen, kulturellen und carceral Neigungen der Gesichtserkennung.

Technische Neigungen und technische Lösungen

Früher in diesem Jahr, MIT-Forscher Freude Buolamwini und Timnit Gebru markiert eine der Möglichkeiten der Gesichtserkennung ist voreingenommen gegenüber schwarzen Menschen: dunklere Hautfarbe Gesichter sind unterrepräsentiert in den Datensätzen verwendet, Sie zu trainieren, verlassen die Gesichts-Erkennung ungenau, wenn man auf dunkle Flächen. Die Forscher fanden, dass, wenn verschiedene Gesicht Anerkennung algorithmen wurden beauftragt, mit der Identifizierung Geschlecht, Sie miscategorized dunkelhäutige Frauen als Männer bis zu einer 34.7 Prozent der Zeit. Die maximale Fehlerquote für hellhäutige Männer, auf der anderen Seite, war weniger als 1 Prozent.

“Fehler bei der man in drei, in einem kommerziellen system, auf etwas reduziert ist, um eine binäre Klassifikation Aufgabe, die Sie haben zu Fragen, wäre das schon zulässig, wenn diese Ausfallraten waren in einer anderen Untergruppe?” Buolamwini gebeten, in einer begleitenden Pressemitteilung MIT.

In der Papier -, Microsoft Geschlecht Klassifizierer hatten eine 20,8 Prozent Fehlerquote für dunkelhäutige Frauen. In der Antwort kündigte Microsoft im Juni war es eine Neukalibrierung der Trainingsdaten durch eine Diversifizierung der Hauttöne im Gesicht-training-Bilder, applaudiert sich selbst für den Ausgleich der rassischen Abweichungen in Geschlecht Einstufung Preisen. Dieser aber spricht nur zu einer Art von bias in der Gesichtserkennung.

“Wir reden über zwei separate und einzigartige Themen in unserer Branche,” Brian Brackeen, Geschäftsführer von AI-startup Kairos, sagte Gizmodo. Technische fehlvorstellungen, wie er erklärte, haben die technischen Lösungen. Aber auch voll funktionierende Gesichtserkennung kann abet voreingenommen systems, ein problem, das kulturell komplexe Lösungen. “Beides sind Probleme und beide verdienen Aufmerksamkeit, aber Sie sind zwei getrennte Dinge.”

Kairos macht biometrischen login-Systeme, die wir in bank-Kunden nutzen Ihr Gesicht, Ihre Konten zu überprüfen, die Mitarbeiter Uhr in die Arbeit und die Menschen in Vergnügungsparks-Zugriff schnell-pass-Spuren. In diesen Kontexten, Brackeen, sagt, die Anteile von einem false positive oder false negative sind viel niedriger. Wird fälschlicherweise von Ihrer bank ist das nicht das gleiche wie fälschlicherweise von der Polizei.

“Ich bin viel bequemer Verkauf Gesichtserkennung zu Freizeitparks, Kreuzfahrt-Linien, oder die Banken”, sagte Brackeen, ” wenn Sie sich in Ihr [bank] – Konto zweimal, denn du bist African American, das ist unfair. Aber, du bist nicht gonna get shot.”

Brackeen, die scherzhaft nennt als “wohl nur” schwarz-Geschäftsführer einer Gesichtserkennung Unternehmen, in die Medien spotlight im letzten Monat, wenn er offenbart Kairos lehnte einen Vertrag mit Körper-Kamera-Hersteller Axon. Nach Brackeen, Gesichtserkennung exponentiell erhöht die Leistungsfähigkeit der Polizei, die wiederum exponentiell verschärft die Vorurteile der Polizei.

“Wenn du redest über ein AI-tool auf einen Körper der Kamera, so sind diese extra-menschliche Fähigkeiten. Lassen Sie uns sagen, ein Offizier identifizieren können 30 Bilder eine Stunde,” sagte Brackeen. “Wenn Sie Fragen, eine Polizei-Abteilung, wenn Sie bereit waren, zu begrenzen [Anerkennung] 30 Anerkennungen einer Stunde würden Sie Nein sagen. Denn es ist nicht wirklich über die Zeit, die der Offizier. Es ist wirklich darum, eine übermenschliche Fähigkeit, Menschen zu identifizieren, die von änderungen des Gesellschaftsvertrages.”

Letztlich Brackeen sieht eine Hersteller-end-Lösung: In einem editorial im vergangenen Monat, er rief jeden einzelnen der Gesichtserkennung Unternehmen zu stoppen den Verkauf Ihrer tech Strafverfolgungsbehörden.

Frucht von einem giftigen Baum

Gesichtserkennung funktioniert durch übereinstimmende die person, die gescannt wird, wird mit einer Datenbank von Gesichts-Bildern. In der Polizeiarbeit zusammenhängen, können diese Datenbanken beinhalten Reisepass und Führerschein Fotos oder Fahndungsfotos. In Orlando, Polizei in Partnerschaft mit Amazon, um zu testen Gesichtserkennung verbunden überwachungskameras an öffentlichen Orten. In New York Schulbezirke haben damit begonnen, zu erforschen, ähnliche Systeme zu Scannen Besucher’ die Gesichter nach der Parkland-Schießen. In beiden Fällen, das Ziel ist, sofort identifizieren, Personen von Interesse, wie diejenigen mit ausstehenden warrants.

Dies setzt jedoch gewährleistet werden, verteilt sich “ziemlich” oder sollte immer auslösen einschreiten der Polizei. Betrachten Ferguson, Missouri, wo die Dreharbeiten Tod von Mike Brown löste Tage der Proteste. Ein Justizministerium Ermittlungen nach Browns Tod gefunden, dass Ferguson Polizei waren “geprägt von der Stadt Fokus auf Umsatz statt, die von der öffentlichen Sicherheit benötigt.” Wie der Bericht erklärt, die Polizei routinemäßig gezielte schwarz Treiber für beendet und sucht als Teil eines rassistischen, lukrative Umsatz-Modell, Haftbefehle für verpasste und Teilzahlungen.

Die zahlen waren atemberaubend: die Darstellung von 67 Prozent der Bevölkerung in Ferguson, schwarz-Bürger waren das Ziel von 85 Prozent des Verkehrs angehalten und 91 Prozent aller Stationen ergab sich in irgendeiner form zitieren. In eine Zukunft, wo alle Treiber sind sofort erkennbar, die über Gesichtserkennung, überlegen, was das Leben wäre wie für jedermann sofort abgeglichen und identifiziert mit einem hervorragenden Haftbefehl als Ergebnis einer voreingenommenen system. Wie der Gesichtserkennung wird standardisiert und tritt in Schulen, Stadien, Flughäfen und in den transit-hubs, die überwachungs-Befugnisse der Polizei wachsen. Auch mit neu abgestimmten Trainings-Modelle, “bias” vorhanden ist. Ein Gelehrter Sprach argumentiert, bias-free-Gesichtserkennung könnte nie existieren, in das Polizeisystem.

“[Gesichtserkennung] vorstellt, ist die Polizeiarbeit als neutral. Wir wissen, dass das nicht der Fall” Simone Browne, assistant professor an der University of Texas in Austin und Autor von Dark Matters: Auf die Überwachung der Schwärze, sagte Gizmodo. Dark Matters argumentiert, dass die biometrische überwachung stellt der Körper selbst in eine form von Beweis, eine form der hyper-Objektivierung mit historischen verbindungen zur Sklaverei. Browne schreibt:

Racializing überwachung ist auch Teil der digitalen Sphäre mit materiellen Konsequenzen innerhalb und außerhalb des it – … Daten, abstrahiert aus, oder produziert, Einzelpersonen und Gruppen ist dann profiliert, in Umlauf gebracht und gehandelt werden zwischen und innerhalb der Datenbanken. Solche Daten sind oft geprägt durch Geschlecht, Nationalität, region, Rasse, sozioökonomischen status und… für einige dieser Kategorien sind besonders schädlich.

Browne argumentiert, dass die Gesichtserkennung erstellt eine digitale Kopie unseres physischen selbst, dass Funktionen wie eine ID, die dann analysiert, geteilt, hinterfragt, abgeglichen gegen uns—im wesentlichen gehandelt—alle als Mittel zu überprüfen, unsere Identität und unsere tracking-Verhalten. Gesichtserkennung kategorisiert Menschen, wird damit zu einem Vehikel für die manchmal nachteiligen Ergebnisse setzen die Menschen in biometrischen Kategorien. Wir sehen die Folgen einer solchen Kategorisierung in gang Datenbanken, terror-watch-Listen, und auch am günstigsten gelegene shopper-Listen.

“Wir können uns noch nicht vorstellen, dass die, die gehen, um Dinge zu verbessern für schwarze Menschen, weil die Polizeiarbeit system ist noch intakt,” Browne warnte.

Wer profitiert von Fortschritt?

“Wir Leben in einer Zeit der beschleunigten Technologie, beschleunigte technologische Entwicklung [und] der wissenschaftlichen Entwicklung”, Alondra Nelson, director of Data & Society, welche Studien die sozialen Auswirkungen der Technologie, sagte Gizmodo. “Momente der pause und des Nachdenkens notwendig sind, und, wie ich glaube, wichtige Erinnerungen, die wir nicht nur Rädchen in einem schnell bewegten system.”

Reaktion auf Microsoft ‘ s ersten post auf der geschlechtserkennung, Nelson skeptisch war, getwittert: “Wir müssen aufhören, verwirrend ‘Inklusion’ in ‘vielfältigen’ surveillance-Systeme mit Gerechtigkeit und Gleichheit.”

“[Viel] von meiner Arbeit gesprochen hat, über die Art und Weise, dass die Gemeinschaften der Farbe in der afrikanisch-amerikanischen Gemeinschaft verstanden, wie Sie sein könnte, beide unterversorgten durch die Art der positiven Rolle, die eine bestimmte neue Technologie, sondern oft überbelichtet, um seine schlimmsten dynamic”, sagte Nelson.

Diese dual-binden—wo schwarze Menschen ausgesetzt sind, die Wissenschaft anstatt durch die it unterstützt—ist gekapselt in das Konzept der “medizinische apartheid”, ein Begriff, geprägt von Autor Harriet Washington. Geboren aus Washington robuste historische Analyse der medizinischen Experimente an Sklaven, “medizinische apartheid” bezieht sich auf, wie schwarze Menschen wurde experimentiert, auf zum Wohle des wissenschaftlichen Fortschritts, von dem Sie nicht profitieren. Eines der berüchtigsten Beispiele stammt aus der Arbeit von James Marion Sims, der ist bereits von einigen als der “Vater der Gynäkologie” zur Senkung der müttersterblichkeitsrate, die im 19ten Jahrhundert, aber die Forschung durch die Durchführung von grausamen Experimente an versklavten schwarzen Frauen.

“Alle frühen wichtigen Bereich der reproduktiven Gesundheit Fortschritte, die ersonnen wurden, durch die Perfektionierung Experimente auf schwarze Frauen,” Washington sagte in einem 2007-interview. “Warum? Weil weiße Frauen können Nein sagen.” Jahrhunderte später, die mütterliche Sterblichkeitsrate bei schwarzen Frauen ist dreimal höher als für weiße Frauen.

Gesichtserkennung ist nicht so schlimm, aber “medizinische apartheid” ist ein nützlicher Rahmen für die überlegung, wie verschiedene Populationen haben unterschiedliche Rollen in der Entwicklung, Weiterentwicklung, Auswirkung und letztendlich auch der nutzen der wissenschaftlichen und technologischen Durchbrüche. Dieses Missverhältnis zeigt sich mit einer einfachen Frage: Welche der Bevölkerung kann dazu schon Nein sagen?

“Das ist nicht etwas, was nur für [Unternehmen zu Fragen,] es geht mehr um die Demokratische Regierungsführung”, sagte Nelson. “Wir müssen offen sein für die Demokratische Möglichkeit, dass mit besseren überwachung-Technologie ist nicht unbedingt besser.”

Außerhalb von Kontexten wie Polizeiarbeit, die Neigungen (sowohl technische als auch kulturelle) scheinen viel weniger bedrohlich. Aber die Frage bleibt: Können schwarze Menschen, die Nein sagen, um sein Gesicht gescannt, auch wenn es statistisch ausgeglichen, kommerziell genutzt oder relativ geregelt? Wie jeder schwarze Menschen sollten in der Lage sein zu genießen die Annehmlichkeiten wie kürzere airport lines und einfacher log-ins. Aber bei der Bewertung eine sich entwickelnde Technologie, die sich positiv oder negativ auf eine Gesellschaft, wir müssen uns Fragen, ob wir es mit unterschiedlichen Auswirkungen auf die Mitglieder dieser Gesellschaft, nicht nur wenn es Spaß macht oder inklusive.

Watching the watchmen

Anfang dieses Monats, Microsoft President Brad Smith gab eine öffentliche (und weit verbreitet) – Aufruf für die US-Regierung zur Regulierung der Gesichtserkennung nach der öffentlichen Gegenreaktion, um seinem Unternehmen einen Laufenden Vertrag mit EIS. “Als Allgemeines Prinzip,” Smith schrieb, “scheint es sinnvoller zu Fragen, eine gewählte Regierung zu Regeln-Unternehmen als zu Fragen, nicht gewählte Unternehmen zu regulieren, wie eine Regierung.”

Smith plädierte für die Schaffung einer “überparteiliche Experten-Kommission” zur Führung der Regulierung der Gesichtserkennung tech. Es schien wie ein PR-Trick auf den ersten, nicht anders als die diversity-panels von der Obama-Jahre oder das neu modische AI Ethik-boards zusammengebaut, mit großen Namen, hohen Preisen und keine durchsetzungsbefugnisse. Smith ‘ s Vorschlag, jedoch, featured einen großen Unterschied: die Eidgenössischen Kommissionen haben das Ohr direkt an die Mitglieder des Kongresses, die sind mutiger als je zuvor in Ihrem Wunsch zu Regeln, die “liberale bastion” des Silicon Valley, und stellt Vorladungen für Dokumente und Informationen, die in der Regel verdeckt durch die proprietären Schutz-Gesetze. Es ist eine ermutigende Anregung, aber die Bekämpfung der Vorurteile, die in der Gesichtserkennung erfordert eine Menge mehr.

Die Schaffung von “nicht-rassistisch” face recognition, die Unternehmen verkaufen müssen, ja, Adresse die technischen Mängel Ihrer Systeme, sondern auch zur Ausübung einer moralischen Imperativ, nicht zu geben, die Technologie, um Gruppen, die mit rassistischen Vorurteilen. Zusätzlich, hat der Gesetzgeber müsste verhängen harte limits, wie und Wann die Gesicht-Scans kann verwendet werden. Selbst dann, unvoreingenommene Gesichtserkennung unmöglich sein wird, ohne auf Rassismus in der Strafjustiz wird es zwangsläufig verwendet werden.

Die Erreichung dieser Ziele vielleicht unrealistisch erscheinen, aber das zeigt nur, wie dringlich das problem ist. Leider sind das keine hypothetischen Bedenken hinsichtlich einer Fernen dystopischen Zukunft. Gerade in diesem Monat, der Orlando police department erneuert seine viel Beklagte Gesichtserkennung pilot mit Amazon, während der New Yorker Gouverneur kündigte die Gesicht-Scans wurde bald für Brücken und Tunnel in New York City.

Gesichtserkennung wird vermarktet, um die Verbraucher als cutting-edge-Komfort, aber es hat klare verbindungen zu überwachung und letztlich die Kontrolle. Stell dir vor, jeder Anzeige oder einem Artikel für ein “bezahlen Sie mit Ihrem Gesicht” – system zeigten auch Straf-Datenbanken oder terror-watch-Listen. Wenn Sie das täten, würden wir bekommen ein ehrlicher Blick auf Gesichtserkennung Auswirkungen.


Date:

by