Microsoft ‘Verbetert’ Racistische Gezichtsherkenning Software

Foto: Drew Angerer (Getty)

In een zelfgenoegzame verplaatsen, Microsoft kondigde enkele belangrijke verbeteringen vandaag zijn fundamenteel vertekend facial recognition software. De Azure-gebaseerd Gezicht API werd bekritiseerd in een research paper eerder dit jaar voor de error rate zo hoog als 20,8 procent—bij een poging om het identificeren van het geslacht van mensen van kleur, in het bijzonder vrouwen met een donkere huidskleur. In tegenstelling, Microsoft ‘s AI was in staat om te identificeren van het geslacht van foto’ s van “lichter mannelijke gezichten” met een fout tarief van nul procent, de conclusie van het onderzoek.

Net als andere bedrijven de ontwikkeling van gezichtsherkenning tech, Microsoft nog niet genoeg beelden van zwarte en bruine mensen, en dat was te zien in haar erkenning van de testresultaten. Microsoft ‘ s blog vandaag legt de verantwoordelijkheid vooral op de gegevens die worden gebruikt bij de bouw van de gezichtsherkenning software, waarin staat dat dergelijke technologieën “slechts zo goed als de gegevens die gebruikt worden om ze te trainen.” Uitgaande van de situatie, de meest voor de hand liggende oplossing was een nieuwe dataset met meer foto ‘ s van bruine mensen, die Microsoft gebruikt.

“Het Gezicht API-team heeft drie belangrijke veranderingen. Ze uitgebreide en herziene opleiding en benchmark datasets, lanceerde nieuwe verzameling van gegevens inspanningen om een verdere verbetering van de opleiding van gegevens door zich in het bijzonder richt op de huidskleur, het geslacht en de leeftijd, en een verbetering van de classifier te produceren met een hogere precisie van de resultaten.” Met de laatste partij van verbeteringen, Microsoft zei dat het in staat was om het verminderen van de fout tarieven voor mannen en vrouwen met een donkere huid door tot 20 keer. Voor alle vrouwen, aldus het bedrijf de fout tarieven werden verlaagd door negen keer.

Een snelle blik op Microsoft ‘ s Gezicht API pagina geeft u een idee waarom Microsoft de opname software is misschien niet zo goed in het identificeren van donkere gezichten:

Merken een patroon hier? Ja, ik ook niet. Hoe dan ook.Merken een patroon hier? Ja, ik ook niet. Hoe dan ook.Merken een patroon hier? Ja, ik ook niet. Hoe dan ook.Merken een patroon hier? Ja, ik ook niet. Hoe dan ook. 1 / 4

In de blog post, Microsoft senior onderzoeker Hanna Wallach raakte op één van de industrie bredere tekortkomingen, om te zien hoe gegevens die zijn gegenereerd door een bevooroordeelde samenleving zou leiden tot vertekende resultaten als het ging om de training machine learning systemen. “We hadden gesprekken over verschillende manieren om te detecteren bias en operationaliseren eerlijkheid,” Eastwood zei. “We spraken over het verzamelen van gegevens inspanningen om de diversificatie van de training data. We spraken over verschillende strategieën om intern testen van onze systemen voordat we deze implementeren.”

De fout hier is nooit alleen dat de tech niet goed werken voor iedereen die niet wit en man. Ook de problemen niet met Microsoft om echt goed in het identificeren en gendering zwarte en bruine mensen.

In januari, Microsoft verklaard dat IJS zou worden met behulp van haar Azuurblauwe Regering Cloud-dienst, in een onderdeel “gegevens verwerken op de rand-apparaten of gebruik te maken van deep learning mogelijkheden om te versnellen gezichts herkenning en identificatie.” De aankondiging heeft tot dusver geleid tot medewerkers vragen het bedrijf te annuleren haar contract met de overheid.

Zelfs als gezichtsherkenning tech wordt minder bevooroordeeld te zijn, het kan nog steeds bewapende tegen mensen van kleur. Op maandag, de CEO van gezichtsherkenning opstarten Kairos, Brian Brackeen, schreef een opiniestuk uit te leggen hoe gevaarlijk de technologie kan worden in de handen van de overheid en de politie.


Date:

by