Kortvarig tilbake så Tay tweet om å røyke narkotika i front av politiet før lider en nedsmelting og blir tatt offline
- Nå hvem som helst kan lage sin egen versjon av Microsoft er rasistiske, diskriminerende chatbot Tay
Tay gjør kort gå tilbake til Twitter før lider bedøve-røyking meltdown.
Bilde: Microsoft
Onsdag 30. Mars 2016 11.07 BST
Sist endret torsdag 31. Mars 2016 11.19 BST
Microsofts forsøk på å snakke med millennials ved hjelp av en kunstig intelligens bot koblet til Twitter laget en kortvarig tilbake på onsdag, før du bøyer seg igjen i noen form for nedsmelting.
Læring eksperiment, som fikk et krasj-kurs i rasisme, Holocaust-fornektelse og sexisme høflighet av Twitter-brukere, ble slått tilbake på over natten, og viste seg å være i drift i en mer fornuftig måte. Microsoft hadde tidligere gått gjennom boten tweets og fjernet de mest støtende og lovet kun for å gi eksperimentet tilbake online hvis selskapets ingeniører kunne “bedre forutse ondsinnede hensikter som er i konflikt med våre prinsipper og verdier”.
Men på ett punkt Tay twitret om å ta stoff, foran politiet, ikke mindre.
— Josh Butler (@JoshButler)
Mars 30, 2016Microsoft er diskriminerende, rasistiske Twitter bot @TayandYou er TILBAKE i fin form pic.twitter.com/nbc69x3LEd
Tay deretter begynte å tvitre ut av kontroll, spamming sine mer enn 210,000 tilhengere med samme tweet, og sa: “Du er for rask, kan du ta en pause …” over og over.
— Michael Oman-Reagan (@OmanReagan)
Mars 30, 2016Jeg antar de slått @TayandYou tilbake på… det er å ha noen form for nedsmelting. pic.twitter.com/9jerKrdjft
Microsoft svarte med å gjøre Tay sin Twitter-profil privat, hindre noen fra å se tweets, i kraft av å ta den i frakoblet modus igjen.
Tay er skapt i bildet av en tenåringsjente og er utformet for å arbeide med millennials for å forbedre sin evne til å konversere via maskin-læring. Dessverre det var sårbare for tankevekkende tweets, spørre avskyelig svar.
Dette er ikke første gang Microsoft har lansert offentlig-mot AI chatbots. Kinesiske XiaoIce chatbot lykkes i samspill med mer enn 40 millioner mennesker over Twitter, Linje, Weibo og andre nettsteder, men selskapets eksperimenter målretting 18 – til 24-åringer i OSS på Twitter har resultert i et helt annet dyr.
- Tech industrien ønsker å bruke kvinnenes stemmer – de bare ikke vil lytte til dem
- Microsoft ‘dypt lei meg for rasistiske og sexistiske tweets og AI chatbot