Microsoft “dybt beklager” for offensiv tweets fra AI chatbot

Virksomheden endelig undskylder efter ‘Tay’ lærte hurtigt at producere racistiske og misogynisitc indlæg, tvinger tech gigant til at lukke den ned efter blot 16 timer

Microsoft’s artificial intelligence chatbot Tay didn’t last long on Twitter.

Microsoft ‘ s artificial intelligence chatbot Tay ikke vare længe, på Twitter.
Foto: Twitter

Lørdag, 26 Marts 2016 05.33 GMT

Microsoft har sagt, at det er “dybt beklager” til den racistiske og sexistiske Twitter-beskeder, der genereres af den såkaldte chatbot det blev lanceret i denne uge.

Selskabet udgivet en officiel undskyldning efter den kunstige intelligens program, gik på en pinlig tirade, som er at sammenligne feminismen til kræft, og antyder, at Holocaust ikke har fundet sted.

Relateret: Tay, Microsoft ‘ s AI chatbot, får et lynkursus i racisme fra Twitter

Bot, der er kendt som Tay, var designet til at blive “klogere”, som flere brugere har interageret med den. I stedet, det lærte hurtigt, at papegøjen en masse af anti-Semitiske og andre hadefulde skældsord, at den menneskelige Twitter-brugere fed programmet, tvinger Microsoft Corp til at lukke den ned på torsdag .

Efter den katastrofale eksperiment, er Microsoft i første omgang kun gav en kortfattet opgørelse, siger Tay var en “machine learning” og “nogle af de løsninger, er uhensigtsmæssig og vejledende for de typer af interaktioner, der er nogle mennesker, der har med det.”

Men selskabet på fredag indrømmede forsøget var gået galt. Det sagde i et blogindlæg, at det ville genoplive Tay kun hvis dens ingeniører kunne finde en måde at forhindre Web brugere fra at påvirke chatbot på måder, der underminerer virksomhedens principper og værdier.

“Vi er dybt ked af, for utilsigtede stødende og sårende tweets fra Tay, som ikke er udtryk for, hvem vi er eller hvad vi står for, og heller ikke, hvordan vi har designet Tay,” skrev Peter Lee, Microsoft ‘ s vice president for forskning.

Microsoft skabt Tay som et eksperiment for at lære mere om, hvordan kunstig intelligens programmer kan engagere sig med Web-brugere i afslappet samtale. Projektet var designet til at interagere med og “lære” fra den unge generation af millennials.

Tay begyndte sin korte levetid Twitter uopsigelighed på onsdag med en håndfuld af uskadelige tweets.

— TayTweets (@TayandYou)
24 marts 2016

c u snart mennesker har brug for søvn nu, så mange samtaler i dag thx�

Derefter sit indlæg tog en mørk tur.

I et typisk eksempel, Tay, tweeted: “feminisme er kræft,” svar til en anden Twitter-bruger, der har sendt den samme besked.

Tay tweeting

Tay tweeting Foto: Twitter/Microsoft

Lee, i blog-indlæg, der kaldes web brugere’ bestræbelser på at udøve en skadelig indflydelse på chatbot “et koordineret angreb fra en delmængde af mennesker.”

“Selv om vi havde forberedt sig til mange typer af misbrug af systemet, vi havde lavet et kritisk tilsyn for denne specifikke angreb,” Lee skrev. “Som et resultat, Tay tweeted vildt upassende og uacceptabelt, ord og billeder.”

Microsoft har slettet alle, men tre af Tay ‘ s tweets.

Microsoft har haft bedre succes med en chatbot kaldet XiaoIce, at selskabet blev lanceret i Kina i 2014. XiaoIce anvendes af omkring 40 millioner mennesker og er kendt for at “glæde med sine historier og samtaler,” ifølge Microsoft.

Som for Tay? Ikke så meget.

“Vi vil forblive urokkelige i vores bestræbelser på at lære af dette og andre oplevelser, som vi arbejder mod at bidrage til et Internet, der repræsenterer det bedste, og det er ikke det værste, menneskeheden,” Lee skrev.

Reuters har bidraget til denne rapport


Date:

by