Microsofts rasistiska chatbot tillbaka med drog-rökfria Twitter härdsmälta

Kortlivade avkastning såg Tay tweet om rökning droger framför polisen tidigare drabbats av en härdsmälta och tas offline

  • Nu kan vem som helst bygga sin egen version av Microsofts rasistiska, sexistiska chatbot Tay

microsoft's tay ai chatbot

Tay gör kort återvända till Twitter innan lidande drog-rökfria härdsmälta.
Foto: Microsoft

Onsdag 30 Mars 2016 11.07 BST

Senast ändrad torsdagen den 31 Mars 2016 11.19 BST

Microsofts försök att samtala med millennials med hjälp av en artificiell intelligens bot ansluten till Twitter gjort en kortvarig avkastning på onsdag, innan den böjer sig ut igen i någon form av härdsmälta.

Lärande experiment, som fick en crash-course i rasism, förnekande av Förintelsen och sexism artighet av Twitter-användare, var bytt tillbaka på natten och verkade vara verksamma i ett mer förnuftigt sätt. Microsoft har tidigare gått igenom bot tweets och tog bort de mest stötande och svor bara för att få experimentera på nätet igen om företagets ingenjörer kan “bli bättre på att förutse ont uppsåt som strider mot våra principer och värderingar”.

Men på en punkt Tay twittrade om att ta droger, framför polisen, inte mindre.


— Josh Butler (@JoshButler)
30 mars, 2016

Microsofts sexistiska rasistiska Twitter bot @TayandYou är TILLBAKA i fin form pic.twitter.com/nbc69x3LEd

Tay sedan började twittra ut av kontroll, spam sina drygt 210 000 anhängare med samma tweet, säger: “Du är för snabb, ta en vila …” om och om igen.


— Michael Oman-Reagan (@OmanReagan)
30 mars, 2016

Jag antar att de vände @TayandYou tillbaka på… det är att ha någon form av härdsmälta. pic.twitter.com/9jerKrdjft

Microsoft svarade genom att göra Tay ‘ s Twitter-profil privat, som hindrar någon från att se de tweets, i själva verket tar det offline igen.

Tay är gjort i bilden av en tonårsflicka och är utformad för att interagera med millennials att förbättra sin kommunikationsförmåga genom machine-learning. Tyvärr var det sårbara för suggestiv tweets, vilket fick obehagliga svar.

Detta är inte första gången som Microsoft har lanserat en offentlig AI chatbots. Den Kinesiska XiaoIce chatbot framgångsrikt samverkar med mer än 40 miljoner människor över Twitter, Linje, Weibo och andra webbplatser, men bolagets experiment riktade 18 – till 24-åringar i USA på Twitter har resulterat i ett helt annat djur.

  • Tech-industrin vill använda kvinnors röster – de bara inte lyssna på dem
  • Microsoft ‘djupt ledsen” för rasistiska och sexistiska inlägg av AI chatbot

Date:

by