Foto: Drew Angerer (Getty)
I en selvstændig lykønskninger flytte, har Microsoft annonceret, at nogle store forbedringer i dag, at dens grundlæggende forudindtaget software til ansigtsgenkendelse. Azure-baseret Ansigtet API blev kritiseret i et forsknings-papir, der tidligere i år for sin fejlprocent—så højt som en 20,8 procent—når de forsøger at identificere køn af farvede mennesker, især kvinder med mørkere hud toner. I modsætning til Microsoft ‘ s AI var i stand til at identificere køn af fotos af “lettere mandlige ansigter” med en fejlprocent på nul procent, vil den undersøgelse, der er indgået.
Ligesom andre virksomheder, der udvikler ansigtsgenkendelse tech, har Microsoft ikke har nok billeder af sorte og brune mennesker, og det viste, i sin anerkendelse test resultater. Microsoft ‘ s blog-indlæg i dag lægger byrden primært på de data, der anvendes ved opbygning af software til ansigtsgenkendelse, som anfører, at sådanne teknologier er “kun så god som de data, der anvendes til at træne dem.” I betragtning af den knibe, den mest åbenlyse fix var et nyt datasæt, der indeholder flere billeder af brune mennesker, som Microsoft har anvendt.
“Over API-team tre store ændringer. De udvidede og reviderede uddannelse og benchmark datasæt, der blev lanceret på indsamling af nye data indsats for yderligere at forbedre uddannelsen data ved at fokusere specifikt på hudfarve, køn og alder, og forbedret klassificeringen til at producere høj præcision resultater.” Med den nyeste parti af forbedringer, Microsoft sagde, at det var i stand til at reducere fejlprocenten for mænd og kvinder med mørkere hud med op til 20 gange. For alle kvinder, selskabet sagde, at fejlen blev reduceret med ni gange.
Et hurtigt blik på Microsofts Ansigt API side giver dig et fingerpeg om, hvorfor Microsofts anerkendelse software er måske ikke så gode til at identificere mørkere ansigter:
At bemærke et mønster her? Ja, heller ikke mig. Alligevel.At bemærke et mønster her? Ja, heller ikke mig. Alligevel.At bemærke et mønster her? Ja, heller ikke mig. Alligevel.At bemærke et mønster her? Ja, heller ikke mig. Alligevel. 1 / 4
I de blog-indlæg, Microsoft senior forsker Hanna Wallach rørt på en af branchens bredere mangler, er at bemærke, hvordan de data, der genereres af en forudindtaget samfund ville føre til biased resultater, når det kom til uddannelse machine learning systemer. “Vi har haft samtaler om forskellige måder at opdage bias og operationalisere retfærdighed,” Wallach sagde. “Vi talte om indsamling af data bestræbelser på at diversificere uddannelsen data. Vi talte om forskellige strategier til internt at teste vores systemer, før vi installere dem.”
Fejlen her var aldrig alene, at den teknik ikke fungerer korrekt for alle, der ikke var hvid og mandlig. Ligeledes problemer ikke ender med Microsoft får rigtig god til at identificere og gendering sorte og brune mennesker.
I januar, Microsoft udtalte, at ISEN ville være at bruge sin Azure Offentlige Cloud-tjeneste, dels for at “behandle data på kant enheder eller udnytte dyb læring kapacitet til at fremskynde ansigts genkendelse og identifikation.” Annonceringen har hidtil ført til, at medarbejdere spørger virksomheden for at annullere sin kontrakt med det statslige organ.
Selv hvis ansigtsgenkendelse tech bliver mindre forudindtaget, kan det stadig være weaponized mod mennesker af farve. På mandag, den administrerende DIREKTØR for ansigtsgenkendelse start Kairos, Brian Brackeen, skrev en op-ed at forklare, hvor farlig teknologi kan være i hænderne på regeringen og politiet.