Svart AI Workshop Blir Siste Flammepunkt i Tech Kultur Krigen

En event designet for å stimulere til økt deltakelse av svart forskere i kunstig intelligens har blitt den siste flammepunkt i debatten om mangfold i forkant av computer science og om politisk korrekthet har gått for langt.

I desember, en gruppe som kaller seg Svart i AI planer om å være vert for en ettermiddag verksted for å markere AI-forskning av svart datamaskinen forskere på Konferansen om Nevrale Information Processing Systems, en av de beste samlinger for forskere som arbeider på AI. Mens arrangørene invitert folk av alle raser til å delta på workshop, de sa bare svart forskere ville få lov til å presentere papers.

Som nyheten om hendelsen spres på sosiale medier, er det utløste en reaksjon fra noen programmerere og akademikere som stilte spørsmål ved hvorfor en hendelse for å fokusere utelukkende på forskning av svart forskere var nødvendig. Debatten ekko striden i August som fulgte Google-ansatt James Damore er sirkulasjon av et manifest som, blant andre poeng, anklaget selskapet for overzealously å fremme mangfold på bekostning av tekniske muligheter ved ansettelser og forfremmelser.

Spørsmål om mangfold i AI og maskin-læring felt fokus på inkludering og arbeid – men problemet er enda mer vidtrekkende konsekvenser. Programvare algoritmer bare oppføre seg effektivt og rettferdig hvis de har et variert sett av data for å trene dem. Den bekymringen er at disse automatiserte systemer er brukt i økende grad kritiske beslutninger, som for eksempel hvem som får et banklån eller er innvilget prøveløslatelse, en mangel på mangfold blant forskerne bak dem vil produsere partisk resultater.

Allerede har det vært en rekke høyprofilerte hendelser der AI programmer utstilt rasefordommer. I 2016, og et pc-program som er designet til å dømme menneskelig skjønnhet bruker visstnok mål funksjoner i bilder – som ansikts symmetri og rynker – ble funnet å sterkt favør folk med lys hud. Samme år, etter at Microsoft har gitt ut en Twitter-chatbot som kalles Tay, brukere enkelt terget det inn ved hjelp av rasistisk språk og uttrykke neo-Nazi utsikt. En algoritme som var ment å gi prøveløslatelse brett med objektive råd om hvorvidt en fange var egnet til å begå annen kriminalitet hvis det slippes ut ble funnet feil å dømme svarte tiltalte som “høy risiko” to ganger så ofte som hvite saksøkte.

Og det er bekymringer om skjulte fordommer innen big data-sett – på alt fra boliglån og forsikring til kliniske studier av nye legemidler – som i økende grad blir brukt til å trene maskin-læring algoritmer.

Timnit Gebru, som forsker kunstig intelligens for Microsoft og er en av de få svart kvinnelige datamaskinen forskere som spesialiserer seg på feltet i USA, co-grunnlagt Svart i AI. Hun har vært vokal i prøver du å ringe oppmerksomhet til problemet med skjevhet i data som maskin-læring algoritmer bruk, og har sagt mangelen på mangfold i feltet, betyr det at de bygning AI-systemer er mindre klar over disse problemene enn de burde være.

Svart i AI søker å fremme samarbeid mellom forskere og øke tilstedeværelsen av svarte i feltet, ifølge sin hjemmeside.Debatten om Svart i AI workshop begynte kort tid etter at Ian Goodfellow, forsker hos Google Hjernen, artificial intelligence lab som er en del av Alfabetet Inc., fremmet det på sin egen Twitter-feed på oktober 11.

“Hvorfor er dette nødvendig? Hvis de svarte mennesker anslått til å delta på ønsket å presentere sitt arbeid hvorfor kan de ikke gjøre det på en event for alle raser?” en bruker med Twitter håndtere @typeload skrev i svar til Goodfellow har innlegget.Andre snart stemte for. “Dette faktisk fremmer segregering av AI (og for samfunnet): svarte kommer til å arrangementer for svarte, kvinner – for kvinner, e.t.c.,” twitret Timofey Yarimov, en data-forsker som jobber for SKB Kontur, et russisk firma som gjør forretnings-og økonomisystemer. “Jeg ser ikke dette nødvendig, fordelene vil være mye mindre enn den ulempen,” twitret Ahmed Adly, som LinkedIn-profil lister sin tittel som “head of mobility” for Qatar-baserte IT-tjenester firmaet heter Malomatia.

Både Adly og Yarimov, når kontaktet av Bloomberg, nektet å svare på flere spørsmål om deres synspunkter.

Brukeren med håndtaket @typeload senere gikk tilbake fra sin første inflammatorisk tweet, tweeting å Goodfellow, “Ikke prøver å ta standpunkt, er det bare å spørre hvordan en hendelse begrense høyttalere av rase er bedre for samfunnet enn en som ikke gjør det.” Når vi kontaktet via Twitter, personen som bruker @typeload håndtere nektet å svare på flere spørsmål.Den skeptiske tweets på sin side trakk rebukes og fordømmelse fra mange andre i feltet. “Forferdelig å se disse reaksjon kommentarer. Spesielt med tanke på at dette fellesskapet vil være å bygge det [sic] skjevhet i den neste generasjons programvare,” twitret Brannon Dorsey, en Chicago-baserte kunstneren og programmerer som bruker programvaren i sin kunst.

F. William Høy, en ledende data forsker på Netflix, twitret at de stiller spørsmål ved behovet for workshopen skal gå og spørre “den nærmeste svart AI forsker” for sine synspunkter. “Hvis du ikke kan finne noen, kanskje det er problemet tilfelle ønsker å ta,” han twitret.Når vi kontaktet noen akademiske forskere som stilte spørsmål ved behovet for workshop over Twitter avslått å kommentere, sier de fryktet for sine jobber etter klager på rasisme hadde blitt sendt med sine universiteter i respons til sine tweets om Svart i AI. Som Damore, disse forskerne skylden politisk korrekthet for hindrer ærlig debatt om manglende mangfold i AI-forskning.

Gebru, som arbeider med spørsmål av bias i AI data i Microsoft ‘ s Rettferdighet, Ansvarlighet, Åpenhet og Etikk research group, og hennes fire andre Svarte i AI arrangørene avslått å kommentere via e-post i går. På Twitter, Gebru takket Goodfellow “står på bakken og fremme våre arrangement + mål.”

© 2017 Bloomberg L. S.


Date:

by