Ein Gesichtserkennungssystem schon ziemlich dicht trat in unser Leben. Es findet Verwendung in Scannern wie Face ID und auch verwendet, um die Täter zu finden. Aber, wie berichtet, die Ausgabe von Science Daily, eine Gruppe von Forschern des Massachusetts University of Technology (MIT) und Stanford studiert mehrere kommerzielle KI-algorithmen für die Gesichtserkennung, zeigte Sie Anzeichen von Sexismus und Rassismus.
Die Studie ergab, dass bei der Analyse der Fotos von weißen Männern algorithmen nicht korrekt gekennzeichnet haben, den Boden nur in 0,8% der Fälle und im Falle von dunkelhäutigen Frauen, die Fehlerquote Betrug im Durchschnitt etwa 30%. Für die Ermittlung von Gesetzmäßigkeiten der Angestellte MIT JoY Буоламвини sammelte 1200 Fotos verschiedener Menschen (von denen allerdings meist aufgedruckt wurden Frauen mit dunkler Haut). Dann wandte Sie sich an die TB Fitzpatrick Skala, wobei es 6 Haut-fototypen, wo I – der hellste und VI – die dunkelste.
Am Ende stellte sich heraus, dass für Frauen mit einer dunklen Haut mit der Bewertung IV, V oder VI auf der Skala Фицпатрика Fehlerquote belief sich auf 20,8%, 34,5% und 34,7% bzw. So wurde festgestellt, dass je dunkler Lichtdruck Haut – desto größer ist die Wahrscheinlichkeit, dass der Algorithmus einen Fehler macht. Bei der Identifizierung der Männer mit heller Haut Fehlerraten nicht größer als 0,8%. Darüber hinaus JoY (die selbst Afroamerikaner ist) versucht, die eigenen Bilder zu analysieren, und es stellte sich heraus, dass das System entweder nicht Ihr Gesicht erkennen oder falsch bestimmen das Geschlecht.
In der Tat, zu einer solchen Forschung kann auf verschiedene Weise behandelt. Aber abgesehen von aller Witze und Vorurteile über die Toleranz, Forschung wirft eine sehr wichtige Frage: und ob die algorithmen der Gesichtserkennung richtig funktioniert? Denn mit Ihrer Hilfe im gleichen China bereits versuchen können strafrechtlich zur Verantwortung gezogen werden. Darüber hinaus hat die neue Forschung schwach korreliert mit der Aussage aus einer Softwarehäusern, die erstellt Software für нейросетей und behauptete, dass Ihre Software erkennt Personen mit einer Genauigkeit in 97% der Fälle. Was denken Sie? Äußern Sie Ihre Meinung in unserem neuen телеграм-Chat.
Нейросети schlecht erkennen dunkelhäutige Männer und Frauen
Vladimir Kuznetsov