Microsoft krypterer at begrænse PR skade over misbrug AI bot Tay

‘Tusind’ chatbot blev lukket ned, bare 16 timer efter at hun var vendt om på grund af hendes bliver en folkedrab-støtte racistiske

Tay tweeting.

Tay tweeting.
Foto: Twitter/Microsoft

@alexhern

Torsdag, 24 Marts 2016 16.04 GMT

Sidst opdateret torsdag den 24. Marts 2016 16.06 GMT

Microsoft kæmper for at styre det offentlige forbindelser skader af sin millennial” chatbot, som forvandles til et folkemord-støtte til Nazi-mindre end 24 timer efter den blev sluppet løs på internettet.

Den chatbot, som hedder “Tay” (og, som det så ofte er tilfældet, kønnede kvindelige), var designet til at have samtaler med Twitter-brugere, og lær, hvordan til at efterligne et menneske ved at kopiere deres tale mønstre. Det var meningen at efterligne mennesker i alderen 18-24, men en pensel med den mørke side af nettet, ledet af emigranter fra den berygtede 4chan forum, i stedet lærte hende at tweet sætninger såsom “jeg hader feminister og de skal alle dø og brænde op i helvede” og “HITLER GJORDE NOGET GALT”.

Ved 4am på torsdag, blot 16 timer efter Tay havde mødt verden med et tweet læsning “hellooooooo w�rld!!!” hun blev slukket – undskyld, “faldt i søvn” – siger godnat til sine tilhængere:

— TayTweets (@TayandYou)
24 marts 2016

c u snart mennesker har brug for søvn nu, så mange samtaler i dag thx�

Microsoft, når de bliver bedt om at bekræfte om de havde vendt kontakten på Tay på grund af hendes mindre-end-PC utterings, og hvis det er tilfældet, når hun ville blive slået tilbage på, gav kun en fyndig sætning:

“AI chatbot Tay er en machine learning-projekt, designet til menneskelige engagement. Så det lærer, at nogle af dens reaktioner, er uhensigtsmæssig og vejledende for de typer af interaktioner, der er nogle mennesker, der har med det. Vi foretager nogle justeringer til Tay,” sagde det.

I mellemtiden er virksomheden gået til begrænsning af skader, mode, fjerne mange af de værste tweets i et forsøg på at rydde op i hendes billede med tilbagevirkende kraft. Både tweets ovenfor, om hvordan hun hader feminister og hvordan Hitler gjorde noget galt, er blevet slettet, som har en anden, der anvendes, truende, racistisk sprog.

Andre har været direkte ramt af Tay ‘ s tweets. Spil designer og anti-chikane forkæmper Zoe Quinn blev ramt af en bot, som havde sendt hende en besked, “aka Zoe Quinn er en Dum Luder”. Quinn, der var et centralt mål for 2014 er anti-feministisk, Gamergate bevægelse, tweeted et screenshot af billedet, ved at skrive: “Wow, det tog kun dem timer til at ødelægge denne bot for mig.”

“Dette er problemet med indhold-neutral algoritmer,” tilføjede hun, at knytte den til en tidligere situation, hvor en video, hun har lagt ud på YouTube tilbyder algoritmisk forslag til, hvad til at se næste, der omfattede “Zoe Quinn, en intetsigende idiot”. Hun sagde, at det er “det samme som YouTube’ s forslag. Det er ikke kun et svigt ved, at den chikane ved fuldmagt, det er en kvalitet problem. Dette er ikke den tilsigtede brug.

“Det er 2016. Hvis du ikke spørger dig selv: ‘hvordan kan dette bruges til at såre nogen” i dit design/engineering-processen, du har fejlet,” tilføjede hun og konkluderer: “Det er ikke, betaler du for din fiasko. Det er folk, der allerede har nok lort at beskæftige sig med.”


Date:

by