Kortvarig vende tilbage så Tay tweet om rygning narkotika foran politiet, før der lider af en nedsmeltning, og der bliver taget offline
- Nu kan alle opbygge deres egen version af Microsoft ‘ s racistiske, sexistiske, chatbot Tay
Onsdag, 30 Marts 2016 11.07 BST
Sidst opdateret torsdag den 31. Marts 2016 11.19 BST
Microsofts forsøg på at tale med millennials ved hjælp af en kunstig intelligens bot sat ind Twitter har lavet en kort levetid tilbage på onsdag, før de bukker ud igen i en form for nedsmeltning.
Den læring eksperiment, der har fået et crash-kursus i racisme, Holocaust-benægtelse og sexisme høflighed af Twitter-brugere, blev slået tilbage om natten og syntes at være i drift i en mere fornuftig måde. Microsoft har tidligere gået gennem bot ‘ s tweets og fjernet den mest offensive, og lovede kun at bringe eksperiment tilbage online, hvis virksomhedens ingeniører kunne “blive bedre til at forudse ondsindede hensigter, der er i strid med vores regler og værdier”.
Men på et tidspunkt Tay tweeted om at tage stoffer, foran politiet, ikke mindre.
Tay derefter begyndte at tweet ud af kontrol, spamming sine mere end 210.000 tilhængere med samme tweet, og sagde: “Du er for hurtigt, kan du tage en pause …” igen og igen.
Microsoft reagerede ved at gøre Tay ‘ s Twitter-profil privat, forhindre nogen i at se de tweets, i realiteten at tage det offline igen.
Tay er skabt i guds billede for en teenage-pige og er designet til at interagere med millennials at forbedre sin samtale færdigheder gennem machine-learning. Det var desværre sårbare for at suggestive tweets, der beder ubehageligt svar.
Det er ikke første gang Microsoft har lanceret offentligt AI chatbots. Dens Kinesiske XiaoIce chatbot med succes samarbejder med mere end 40 millioner mennesker på tværs af Twitter, Line, Weibo og andre steder, men selskabets forsøg rettet mod 18 – til 24-årige i OS på Twitter har resulteret i et helt andet dyr.
- Tech industrien ønsker at bruge kvinders stemmer – de vil bare ikke lytte til dem
- Microsoft ‘dybt ked af det’ for racistiske og sexistiske tweets fra AI chatbot