Microsoft ‘ s racistiske chatbot vender tilbage med stof-og Twitter-nedsmeltning

Kortvarig vende tilbage så Tay tweet om rygning narkotika foran politiet, før der lider af en nedsmeltning, og der bliver taget offline

  • Nu kan alle opbygge deres egen version af Microsoft ‘ s racistiske, sexistiske, chatbot Tay

microsoft's tay ai chatbot

Tay gør kort vende tilbage til Twitter, før lidelse lægemiddel-og nedsmeltning.
Foto: Microsoft

Onsdag, 30 Marts 2016 11.07 BST

Sidst opdateret torsdag den 31. Marts 2016 11.19 BST

Microsofts forsøg på at tale med millennials ved hjælp af en kunstig intelligens bot sat ind Twitter har lavet en kort levetid tilbage på onsdag, før de bukker ud igen i en form for nedsmeltning.

Den læring eksperiment, der har fået et crash-kursus i racisme, Holocaust-benægtelse og sexisme høflighed af Twitter-brugere, blev slået tilbage om natten og syntes at være i drift i en mere fornuftig måde. Microsoft har tidligere gået gennem bot ‘ s tweets og fjernet den mest offensive, og lovede kun at bringe eksperiment tilbage online, hvis virksomhedens ingeniører kunne “blive bedre til at forudse ondsindede hensigter, der er i strid med vores regler og værdier”.

Men på et tidspunkt Tay tweeted om at tage stoffer, foran politiet, ikke mindre.


— Josh Butler (@JoshButler)
30 marts 2016

Microsofts sexistiske, racistiske Twitter-bot @TayandYou er TILBAGE i fin form pic.twitter.com/nbc69x3LEd

Tay derefter begyndte at tweet ud af kontrol, spamming sine mere end 210.000 tilhængere med samme tweet, og sagde: “Du er for hurtigt, kan du tage en pause …” igen og igen.


— Michael Jordan-Reagan (@OmanReagan)
30 marts 2016

Jeg tror, at de viste @TayandYou tilbage på… det er at have en form for nedsmeltning. pic.twitter.com/9jerKrdjft

Microsoft reagerede ved at gøre Tay ‘ s Twitter-profil privat, forhindre nogen i at se de tweets, i realiteten at tage det offline igen.

Tay er skabt i guds billede for en teenage-pige og er designet til at interagere med millennials at forbedre sin samtale færdigheder gennem machine-learning. Det var desværre sårbare for at suggestive tweets, der beder ubehageligt svar.

Det er ikke første gang Microsoft har lanceret offentligt AI chatbots. Dens Kinesiske XiaoIce chatbot med succes samarbejder med mere end 40 millioner mennesker på tværs af Twitter, Line, Weibo og andre steder, men selskabets forsøg rettet mod 18 – til 24-årige i OS på Twitter har resulteret i et helt andet dyr.

  • Tech industrien ønsker at bruge kvinders stemmer – de vil bare ikke lytte til dem
  • Microsoft ‘dybt ked af det’ for racistiske og sexistiske tweets fra AI chatbot

Date:

by