Microsoft i förra veckan bad om ursäkt för sin Tay chatbot dåliga beteende. Det tog machine learning system offline, bara 24 timmar i sitt korta liv, efter Twitter troll fick det att förneka Förintelsen och framkalla pro-Nazist och anti-feministiska kommentarer.
“Vi är djupt ledsen för oavsiktliga kränkande och sårande tweets från Tay, som inte visar vilka vi är eller vad vi står för, inte heller hur vi utformat Tay,” sade Peter Lee, vice vd på Microsoft Research.
Bolaget lanserade Tay på Twitter med målet att lära om och förbättra artificiell intelligens genom att ha det interagerar med 18 – till 24-åriga AMERIKANSKA användare på Webben.
Microsoft säger att en e-gänget tvingas att ta Tay ner.
“Tyvärr, inom de första 24 timmarna för att komma online, vi blev medvetna om en samordnad insats av vissa användare för missbruk Tay’ s kommentar färdigheter att ha Tay reagera på ett olämpligt sätt,” en Microsoft talesman sade i ett uttalande att TechNewsWorld av företaget rep Lenette Larson. “Som ett resultat, vi har tagit Tay offline och gör anpassningar.”
Trollen enligt uppgift kom från 4Chan webbplats.
“c u snart vi människor behöver sova nu så många samtal idag thx,” är det sista meddelande postat på TayTweets Twitter-konto.
En Brant Inlärningskurva
Detta är inte första gången som Microsoft har stubbed sin tå på Nätet.
Tay debacle “är tredje gången jag har sett dem misslyckas med att förutse folk beter sig illa, vilket verkar konstigt eftersom tech företag är till stor del består av yngre killar som har sannolika, vid en eller annan tidpunkt, nyligen uppvisat liknande beteende,” anmärkte Rob Enderle, förste analytiker på Enderle Group.
“För många år sedan, Microsoft upp en avatar-baserade chattrum för unga tonåringar, och jag … hittade en kille med en penis för hans avatar försöker att prata med unga flickor och rapporterade det”, sa han till TechNewsWorld. “Det visade sig att det var en man med två döttrar.”
Microsoft drog kontakt på chatten efter några fler incidenter, sade Enderle.
Några år senare lanserade en gemensam marknadsföring med Intel som kallas “Digital Glädje” och “jag frågade om de hade kollat om det var en porr sida med samma namn, och de sa nej. Visade sig att det fanns en stor man i Frankrike hade de att köpa”, tillade han, och “[OSS]$10 miljoner kampanjen var ett misslyckande.”
Ingen Intelligens Här
Microsofts beskrivning av Tay som en artificiell intelligens chatt systemet inte sitta bra med Stuart Russell, professor i datavetenskap vid
University of California i Berkeley.
“Det verkar löjligt att kalla detta ett AI-system, som man förstår ingenting av innehållet i allt den tar emot eller sänder ut”, sa han till TechNewsWorld. “Det är som en papegoja som lär sig att säga oförskämd ord från sin ägare.”
Människor Som Beter Sig Illa
Svar till Tay illustrerar hur svårt det kan vara för att styra beteenden på Webben. Andra försök har slint, som Reddit fick reda på förra året när du är arg medlemmar tvingas tf VD
Ellen Pao att avgå efter att hon hade förbjudit fem subreddits, av vilka två var fett-att peka ut en rasistisk, homofobisk och den sista inriktade spelare.
Vad kan Twitter göra åt problemet?
“Vi vill inte kommentera enskilda konton för sekretess-och säkerhetsskäl,” Twitter talesperson Nu Wexler berättade TechNewsWorld, som pekar på att bolagets
regler och att en förklaring av
processen för rapportering av eventuella överträdelser.
Tay debacle “visar upp en av de stora bekymmer med både analytics och AI — som en del dåliga skådespelare eller aktörer kommer korrupta process med ett problematiskt resultatet,” analytiker på Enderle sagt.
“Detta talar också för att delvis varför det finns en stor oro för fientliga AIs,” fortsatte han. “Dåligt gjort programmering kan resultera i maskiner som kunde göra skada på en massiv skala.”
Chatbots “måste lära sig hur man handskas med problemet innan det släpps ut i naturen,” Enderle föreslog, “och måste övervakas noggrant i sin ursprungliga lärande faser för att säkerställa att de inte lär sig dåliga saker.”