Bolaget slutligen ber om ursäkt efter “Tay’ lärde sig snabbt att producera rasistiska och misogynisitc inlägg, tvingar tech jätten att stänga av den efter bara 16 timmar
Microsofts artificiell intelligens chatbot Tay inte länge på Twitter.
Foto: Twitter
Lördag 26 Mars 2016 05.33 GMT
Microsoft har sagt att det är “djupt ledsen” för rasistiska och sexistiska Twitter-meddelanden som genereras av den så kallade chatbot det lanseras denna vecka.
Företaget släppt en officiell ursäkt efter artificiell intelligens programmet gick på en pinsam tirad, och liknade feminism till cancer och föreslå Förintelsen inte har skett.
Relaterat: Tay, Microsofts AI chatbot, får en snabbkurs i rasism från Twitter
Bot, känd som Tay, var tänkt att bli “smartare” i takt med att användarna interagerade med det. I stället lärde sig snabbt att papegojan en massa anti-Semitiska och andra hatiska skällsord som mänskliga Twitter-användare fed programmet, tvingar Microsoft Corp för att stänga ner det på torsdag .
Efter det katastrofala experimentet, Microsoft början bara gav ett kortfattat uttalande, säger Tay var en “learning machine” och “några av sina svar är olämpliga och som en fingervisning om vilka typer av interaktioner vissa människor har det.”
Men företaget på fredagen erkände experiment hade gått väldigt fel. Det sade i ett blogginlägg att det skulle återuppliva Tay endast om dess ingenjörer kunde hitta ett sätt att förhindra att användare på Webben påverkar chatbot på ett sätt som undergräver bolagets principer och värderingar.
“Vi är djupt ledsen för oavsiktliga kränkande och sårande tweets från Tay, som inte visar vilka vi är eller vad vi står för, inte heller hur vi utformat Tay,” skrev Peter Lee, Microsoft vice vd för forskning.
Microsoft skapade Tay som ett experiment för att lära sig mer om hur artificiell intelligens program kan samarbeta med Webb-användare i vardagligt samtal. Projektet har utformats för att samverka med och “lära sig” från den unga generationen av millennials.
Tay började sin kortlivade Twitter besittningsrätt på onsdag med en handfull ofarliga tweets.
— TayTweets (@TayandYou)
24 mars, 2016c u snart vi människor behöver sova nu så många samtal idag thx�
Sedan dess inlägg tog en mörk vändning.
I ett typiskt exempel Tay twittrade: “feminism är cancer”, ett svar till en annan Twitter-användare som hade postat samma budskap.
Tay twittra Foto: Twitter/Microsoft
Lee, i blogginlägg, som kallas web användare’ ansträngningar att utöva ett skadligt inflytande på chatbot “en samordnad attack av en delmängd av människor.”
“Även om vi hade förberett sig för många typer av missbruk av systemet, vi hade gjort en kritisk tillsyn för detta särskilda attack,” Lee skrev. “Som ett resultat, Tay twittrade vilt olämpliga och oacceptabla ord och bilder.”
Microsoft har tagit bort alla utom tre av Tay tweets.
Microsoft har haft bättre framgång med en chatbot kallas XiaoIce som lanserades i Kina under 2014. XiaoIce används av omkring 40 miljoner människor och är känd för att “glädja med sina berättelser och samtal”, enligt Microsoft.
Som för Tay? Inte så mycket.
“Vi kommer att förbli ståndaktiga i våra ansträngningar att lära sig från denna och andra erfarenheter som vi arbetar mot att bidra till ett Internet som är den bästa, inte den sämsta, av mänskligheten,” Lee skrev.
Reuters har bidragit till denna rapport