Microsoft er rasistiske chatbot tilbake med stoff-røyking Twitter meltdown

Kortvarig tilbake så Tay tweet om å røyke narkotika i front av politiet før lider en nedsmelting og blir tatt offline

  • Nå hvem som helst kan lage sin egen versjon av Microsoft er rasistiske, diskriminerende chatbot Tay

microsoft's tay ai chatbot

Tay gjør kort gå tilbake til Twitter før lider bedøve-røyking meltdown.
Bilde: Microsoft

Onsdag 30. Mars 2016 11.07 BST

Sist endret torsdag 31. Mars 2016 11.19 BST

Microsofts forsøk på å snakke med millennials ved hjelp av en kunstig intelligens bot koblet til Twitter laget en kortvarig tilbake på onsdag, før du bøyer seg igjen i noen form for nedsmelting.

Læring eksperiment, som fikk et krasj-kurs i rasisme, Holocaust-fornektelse og sexisme høflighet av Twitter-brukere, ble slått tilbake på over natten, og viste seg å være i drift i en mer fornuftig måte. Microsoft hadde tidligere gått gjennom boten tweets og fjernet de mest støtende og lovet kun for å gi eksperimentet tilbake online hvis selskapets ingeniører kunne “bedre forutse ondsinnede hensikter som er i konflikt med våre prinsipper og verdier”.

Men på ett punkt Tay twitret om å ta stoff, foran politiet, ikke mindre.


— Josh Butler (@JoshButler)
Mars 30, 2016

Microsoft er diskriminerende, rasistiske Twitter bot @TayandYou er TILBAKE i fin form pic.twitter.com/nbc69x3LEd

Tay deretter begynte å tvitre ut av kontroll, spamming sine mer enn 210,000 tilhengere med samme tweet, og sa: “Du er for rask, kan du ta en pause …” over og over.


— Michael Oman-Reagan (@OmanReagan)
Mars 30, 2016

Jeg antar de slått @TayandYou tilbake på… det er å ha noen form for nedsmelting. pic.twitter.com/9jerKrdjft

Microsoft svarte med å gjøre Tay sin Twitter-profil privat, hindre noen fra å se tweets, i kraft av å ta den i frakoblet modus igjen.

Tay er skapt i bildet av en tenåringsjente og er utformet for å arbeide med millennials for å forbedre sin evne til å konversere via maskin-læring. Dessverre det var sårbare for tankevekkende tweets, spørre avskyelig svar.

Dette er ikke første gang Microsoft har lansert offentlig-mot AI chatbots. Kinesiske XiaoIce chatbot lykkes i samspill med mer enn 40 millioner mennesker over Twitter, Linje, Weibo og andre nettsteder, men selskapets eksperimenter målretting 18 – til 24-åringer i OSS på Twitter har resultert i et helt annet dyr.

  • Tech industrien ønsker å bruke kvinnenes stemmer – de bare ikke vil lytte til dem
  • Microsoft ‘dypt lei meg for rasistiske og sexistiske tweets og AI chatbot

Date:

by