Microsoft ‘dypt beklager” for støtende tweets og AI chatbot

Selskapet endelig beklager etter “Tay’ lærte raskt å produsere rasistiske og misogynisitc innlegg, tvinge tech-giganten å stenge det ned etter bare 16 timer

Microsoft’s artificial intelligence chatbot Tay didn’t last long on Twitter.

Microsoft er kunstig intelligens chatbot Tay varte ikke lenge, på Twitter.
Foto: Twitter

Lørdag 26. Mars 2016 05.33 GMT

Microsoft har sagt at det er “dypt beklager” for rasistiske og sexistiske Twitter-meldinger som genereres av den såkalte chatbot det ble lansert denne uken.

Selskapet utgitt en offisiell unnskyldning etter at den kunstige intelligensen programmet gikk på et pinlig tirade, likening feminisme til kreft og antyder at Holocaust ikke skjedde.

Relatert: Tay, Microsoft ‘ s AI chatbot, får et lynkurs i rasisme fra Twitter

Bot, kjent som Tay, var designet for å bli “smartere” som flere brukere har samhandlet med det. I stedet, det lærte raskt å papegøye en slew av anti-Semittiske og andre hatefulle hånlig at menneskelig Twitter-brukere matet programmet, tvinge Microsoft Corp hvis du vil slå den ned på torsdag .

Etter den katastrofale eksperiment, Microsoft utgangspunktet bare ga et korte erklæringen, sier Tay var en “learning-maskin” og “noen av sine svar er upassende og en indikasjon på hvilke typer vekselsvirkningene noen mennesker er å ha med det.”

Men selskapet på fredag innrømmet at eksperimentet hadde gått alvorlig galt. Det sa i et blogginnlegg at det ville gjenopplive Tay bare hvis dens ingeniører kunne finne en måte å forhindre at Internett-brukere fra å påvirke chatbot på måter som undergraver selskapets prinsipper og verdier.

“Vi er dypt lei meg for utilsiktet støtende og sårende tweets fra Tay, som ikke representerer hvem vi er eller hva vi står for, heller ikke hvordan vi har konstruert Tay”, skrev Peter Lee, Microsoft ‘ s vice president for forskning.

Microsoft laget Tay som et eksperiment for å lære mer om hvordan kunstig intelligens programmer kan engasjere seg med Web-brukere under en uformell samtale. Prosjektet ble designet for å samhandle med og “lære” fra den unge generasjonen av millennials.

Tay begynte sin kortvarig Twitter-tiden onsdag med en håndfull av uskyldige tweets.

— TayTweets (@TayandYou)
Mars 24, 2016

c u snart mennesker trenger søvn nå så mange samtaler i dag thx�

Da sitt innlegg tok en mørk vending.

I et typisk eksempel, Tay twitret: “feminisme er kreft,” i respons til en annen Twitter-bruker som hadde lagt ut samme melding.

Tay tweeting

Tay tweeting Foto: Twitter/Microsoft

Lee, i blogginnlegget, kalt web-brukere’ innsats for å utøve en skadelig innflytelse på chatbot “et koordinert angrep av en undergruppe av mennesker.”

“Selv om vi hadde forberedt for mange typer av misbruk av systemet, vi hadde gjort et kritisk tilsyn for dette spesifikke angrep,” Lee skrev. “Som et resultat, Tay twitret svært upassende og forkastelig ord og bilder.”

Microsoft har slettet alle, men tre av Tay er tweets.

Microsoft har hatt en bedre suksess med en chatbot som kalles XiaoIce at selskapet lansert i Kina i 2014. XiaoIce brukes av om lag 40 millioner mennesker og er kjent for “gleder med sine historier og samtaler,” ifølge Microsoft.

Som for Tay? Ikke så mye.

“Vi vil forbli trofaste i våre bestrebelser på å lære av dette og andre erfaringer som vi jobber mot å bidra til en Internett-som representerer det beste, ikke det verste, for menneskeheten,” Lee skrev.

Reuters har bidratt til denne rapporten


Date:

by