Google ‘ s løsning til utilsigtet algoritmisk racisme: forbud mod gorillaer

51

Google ‘s” omgående handling ” over AI mærkning af sorte mennesker som gorillaer, var simpelthen at blokere de ord, sammen med chimpanse og monkey, rapporter tyder på,

A silverback high mountain gorilla,

En silverback højt bjerg gorilla, som du ikke længere være i stand til at mærke tilfredsstillende på Google Billeder.
Foto: Thomas Mukoya/Reuters

Google

Google ‘ s løsning til utilsigtet algoritmisk racisme: forbud mod gorillaer

Google ‘s” omgående handling ” over AI mærkning af sorte mennesker som gorillaer, var simpelthen at blokere de ord, sammen med chimpanse og monkey, rapporter tyder på,

@alexhern

Fre 12 Jan 2018 16.04 GMT

Sidst opdateret Fre 12 Jan 2018 16.05 GMT

Efter Google blev kritiseret i 2015 til et billede-anerkendelse af en algoritme, der automatisk tagget billeder af sorte mennesker som “gorillaer”, virksomheden lovede “omgående handling” for at forhindre en gentagelse af de fejl.

Denne sag blev simpelthen for at forhindre, at Google Billeder fra nogensinde mærkning af et billede som en gorilla, chimpanse, eller abe – selv billeder af primater sig selv.

Det er den konklusion, draget af Wired magazine, som har testet mere end 40.000 billeder af dyr på tjenesten. Fotos præcist mærkede billeder af pandaer og pudler, men konsekvent returnerede ingen resultater for de store menneskeaber og aber, der – til trods for præcist at finde bavianer, gibbons og orangutanger.

Google har bekræftet, at de var fjernet fra søgninger og image-tags som en direkte følge af 2015 hændelse, fortæller bladet, at: “Image mærkning teknologi er stadig tidligt, og det er desværre langt fra perfekt.”

Gorilla blindhed er fundet andre steder på tværs af Google ‘ s platform: Google Linse, en kamera-app, der identificerer objekter i billeder, vil også nægte at anerkende gorillaer. Men Google Assistant korrekt at identificere den primater, som vil Google ‘ s business-to-business billede tjenesten til stemmegenkendelse, som Google Sky Vision.

Svigt i virksomheden til at udvikle en mere bæredygtig fix i de følgende to år har sat fokus på i hvilket omfang machine learning-teknologi, som understøtter det billede, anerkendelse funktion, er stadig ved at modnes.

Sådanne teknologier er ofte beskrevet som en “black box”, der er i stand til at producere effektive resultater, men med ringe evne på den del af deres skabere, for at forstå præcis, hvordan og hvorfor de gør de beslutninger, de gør.

Dette gælder navnlig, når den første bølge af billede-anerkendelse-systemer, som Google Billeder var en del af. På samme tidspunkt, som produktet blev lanceret, Flickr udgivet en lignende funktion, auto-tagging – som havde en næsten identisk sæt af problemer.

Yahoo-ejet foto deling platform, mærket et billede af en sort mand, som “abe”, og et billede af Dachau koncentrationslejr som “jungle gym”. Flickr ‘s svar var meget det samme som Google’ s: selskabet tilsyneladende fjernet ordet “ape” fra sin tagging leksikon helt.

  • AI-programmer udstille race og køn, fordomme, forskning afslører