Microsoft vil fange en forudindtaget AI

Microsoft — det er navnet på en anden virksomhed, der forsøger at dæmme op for algoritmisk bias. For nogen er ikke en hemmelighed, at i de seneste tid, kunstig intelligens, er i stigende grad kommer “til at gå”, og begynder med det lort, der afspejler dine egne fordomme, forudfattede meninger, fordomme og mangler i vores samfund. Virksomheden ønsker at skabe et værktøj, der vil finde og advare folk om de algoritmer, AI, der kan true dem.

Det er interessant, at Microsoft, der giver sig selv som en virksomhed, der skaber AI til at forene mennesker, der slutter sig til rækken af Google og Facebook til at skabe nogle værktøjer til søgning “dårligt opdraget” kunstig intelligens. Men den nye Microsoft forudindtaget søgealgoritmer vil være i stand til at finde og markere kun på de nuværende problemer. Så programmer, der kan føre til en stigning i niveauet af bias i politiet, for eksempel, vil fortsætte med at oprette og bruge, bare ikke så længe som før.

For at skabe en ægte AI, der vil være fair og rimelige, og behovet for at arbejde mere på udseende. Kan bringe en uafhængig kontrol af, at de tekniske selskab, der er involveret eksterne eksperter til at gennemgå sine algoritmer og søge efter tegn på skævhed, enten i koden eller i de data, vi behandler.

Revisionen kunstig intelligens er ved at vinde momentum, og nogle virksomheder om udvikling af AI begyndte at tiltrække revisorer, der kan se på deres kode. Men det kræver også, at AI blev ganske simpelt, enten til revisor velbevandret i koden. I tilfælde af mere komplekse algoritmer, dyb læring og ikke lykkes.

Et andet muligt svar er den bedste træning til folk, der rent faktisk skaber AI, så de kan bestemme over deres egne holdninger og fordomme til at holde dem for dig selv, ikke at lade algoritmen til at fortolke dem som faktum. Alle har implicit bias, og tech verden vil drage fordel af det faktum, at vil hjælpe mennesker til bedre at forstå deres eget verdenssyn.

Microsoft vil fange en forudindtaget AI
Ilya Hel


Date:

by