Microsoft ‘Verbessert’ Rassistischen Gesichts-Erkennungs-Software

Foto: Drew Angerer (Getty)

In eine Selbstgefällige verschieben, Microsoft angekündigt, einige großen Verbesserungen, die heute zu der grundsätzlich voreingenommen Gesichts-Erkennungs-software. Die Azure-basierte Gesicht API wurde kritisiert in einer Studie Anfang dieses Jahres für seine Fehlerquote so hoch als 20,8 Prozent—, wenn Sie versuchen zu identifizieren, das Geschlecht des Menschen der Farbe, vor allem Frauen mit dunkler Haut-Töne. Im Gegensatz, Microsoft ist AI in der Lage war zu erkennen, das Geschlecht des Fotos von “leichter männlicher Gesichter” mit einer Fehlerquote von null Prozent, die Studie abgeschlossen.

Wie andere Unternehmen, die Entwicklung von Gesichtserkennungs-tech, Microsoft habe nicht genug Bilder von schwarzen und braunen Menschen, und es zeigte sich in der Anerkennung der Testergebnisse. Microsoft-blog-post heute liegt die Last vor allem auf die Daten, die es beim Bau der Gesichts-Erkennungs-software, die besagt, dass solche Technologien sind “nur so gut wie die Daten verwendet, um Sie zu trainieren.” In Anbetracht der misslichen Lage, die offensichtliche Korrektur war ein neuer Datensatz mit mehr Bilder von braunen Menschen, die Microsoft, verwendet.

“Das Gesicht API-team hat drei wesentliche Veränderungen. Sie erweitert und überarbeitet Ausbildung und benchmark-Datensätze mit neuen Daten Auflistung Bemühungen um eine weitere Verbesserung der Trainings-Daten durch die Fokussierung speziell auf Hautfarbe, Geschlecht und Alter sowie verbesserter Klassifikator zu produzieren, der höheren Präzision der Ergebnisse.” Mit der neuesten charge von Verbesserungen, die Microsoft sagte, es war in der Lage zu reduzieren die Fehlerquoten für Männer und Frauen mit dunkler Haut durch die bis zu 20 mal. Für alle Frauen, die das Unternehmen sagte, dass die Fehlerraten konnten reduziert werden von neun mal.

Ein kurzer Blick auf Microsoft ‘s Gesicht API-Seite gibt Ihnen eine Ahnung, warum Microsoft’ s recognition-software möglicherweise nicht so groß, bei der Ermittlung dunkler Gesichter:

Zu bemerken, ein Muster hier? Ja, ich auch nicht. Sowieso.Zu bemerken, ein Muster hier? Ja, ich auch nicht. Sowieso.Zu bemerken, ein Muster hier? Ja, ich auch nicht. Sowieso.Zu bemerken, ein Muster hier? Ja, ich auch nicht. Sowieso. 1 / 4

In der blog-post, Microsoft senior researcher Hanna Wallach berührt von der Industrie größeren Fehler, stellt fest, wie Daten erzeugt, die von einer voreingenommenen Gesellschaft würde zu Verzerrungen der Ergebnisse führen, wenn es zur Ausbildung der machine-learning-Systeme. “Wir hatten Gespräche über die verschiedenen Möglichkeiten zu erkennen, bias und operationalisieren fairness,” Wallach, sagte. “Wir Sprachen über Daten Auflistung Bemühungen um die Diversifizierung der Trainingsdaten. Wir Sprachen über verschiedene Strategien, um intern testen Sie unsere Systeme vor, die wir bereitstellen.”

Der Fehler war hier nie allein, dass die tech nicht richtig funktioniert für alle, die nicht weiß und Männlich. Ebenso die Probleme enden nicht mit Microsoft immer sehr gut identifizieren und vergeschlechtlichung die schwarzen und braunen Menschen.

Im Januar, Microsoft erklärt, dass EIS wäre mit seiner Azure Government Cloud-service, im Teil “Prozess-Daten auf edge-Geräte, die an oder nutzen die deep-learning-Funktionen zu beschleunigen, Gesichtserkennung und-Identifizierung.” Die Ankündigung hat so weit geführt, um die Mitarbeiter in den Unternehmen gefragt zu kündigen, seinen Vertrag mit der staatlichen Behörde.

Auch wenn die Gesichtserkennung tech wird weniger voreingenommen, kann es immer noch offensiver gegen die Menschen in Farbe. Am Montag, dem CEO von Gesicht Anerkennung startup Kairos, Brian Brackeen, schrieb ein op-ed zu erklären, wie gefährlich die Technologie ist in den Händen der Regierung und der Polizei.


Date:

by