Microsoft ‘Forbedrer’ Rasistiske Facial Anerkjennelse Programvare

Foto: Drew Angerer (Getty)

I en selv-gratulasjoner flytte, Microsoft annonsert noen store forbedringer i dag til sin fundamentalt partisk facial anerkjennelse programvare. Azure-baserte Ansikt API ble kritisert i en forskningsartikkel tidligere i år for sin feil pris—så høyt som 20.8 prosent—når du forsøker å identifisere kjønn av folk av farge, spesielt kvinner med mørkere hudtoner. I kontrast, Microsoft ‘ s AI var i stand til å identifisere kjønn bilder av de “lettere mannlige ansikter” med en feilrate på null prosent, studien konkluderte med.

Som andre selskaper som utvikler ansiktsgjenkjenning tech, Microsoft ikke har nok bilder av sorte og brune mennesker, og det viste i sin anerkjennelse test resultater. Microsoft ‘ s blogg-innlegg i dag setter tyngende først og fremst på data som er det som brukes ved bygging av ansikts gjenkjenning programvare, som sier at slike teknologier er “bare så god som de data som brukes til å trene dem.” Tatt i betraktning den situasjon, den mest åpenbare fikse ble et nytt datasett som inneholder flere bilder av brune mennesker, som Microsoft brukte.

“Ansiktet API laget tre store endringer. De utvidet og revidert trening og målestokk datasett, som ble lansert ny datainnsamling innsats for å fremme bedre opplæring av data ved å fokusere spesielt på hudfarge, kjønn og alder, og forbedret classifier til å produsere høyere presisjon resultater.” Med de nyeste utgavene av forbedringer, Microsoft sa at det var i stand til å redusere feil priser for menn og kvinner med mørkere hud med opp til 20 ganger. For alle kvinner, er selskapet sa feil priser ble redusert med ni ganger.

Et raskt blikk på Microsoft ‘ s Face API-siden gir deg en anelse om hvorfor Microsoft er gjenkjennelse programvare er kanskje ikke så gode på å identifisere mørkere ansikter:

Merke et mønster her? Ja, meg heller. Uansett.Merke et mønster her? Ja, meg heller. Uansett.Merke et mønster her? Ja, meg heller. Uansett.Merke et mønster her? Ja, meg heller. Uansett. 1 / 4

I blogginnlegget, Microsoft senior forsker Hanna Wallach berørt på en av bransjens bredere svakheter, og legg merke til hvordan data generert av en partisk samfunnet ville føre til ensidige resultater når det kom til trening machine learning systems. “Vi hadde samtaler om ulike måter å oppdage bias og operasjonalisere rettferdighet,” Wallach sa. “Vi snakket om datainnsamling innsats for å diversifisere trening data. Vi snakket om forskjellige strategier internt teste våre systemer før vi distribuerer dem.”

Svikt her var aldri alene at det teknisk ikke fungerer på riktig måte, for alle som ikke var hvite og mann. Likeledes problemer ikke ender med Microsoft å bli virkelig god på å identifisere og kjønnsdeling svart og brun folk.

I januar, Microsoft uttalt at ISEN ville være å bruke sin Azure Regjeringen Cloud-tjenesten, i en del å “behandle data på kanten enheter eller bruke dybdekunnskap evner til å akselerere ansikts gjenkjenning og identifisering.” Kunngjøringen har så langt ført til at ansatte stiller selskapet til å avbryte sin kontrakt med det offentlige.

Selv om ansiktsgjenkjenning tech blir mindre partisk, det kan fortsatt være militær versjon av mot folk av farge. På mandag, administrerende DIREKTØR i ansiktsgjenkjenning oppstart Kairos, Brian Brackeen skrevet en op-ed forklarer hvor farlig teknologi kan være i hendene på staten og politiet.


Date:

by