Kortvarig tilbake så Tay tweet om å røyke narkotika i front av politiet før lider en nedsmelting og blir tatt offline
- Nå hvem som helst kan lage sin egen versjon av Microsoft er rasistiske, diskriminerende chatbot Tay
Onsdag 30. Mars 2016 11.07 BST
Sist endret torsdag 31. Mars 2016 11.19 BST
Microsofts forsøk på å snakke med millennials ved hjelp av en kunstig intelligens bot koblet til Twitter laget en kortvarig tilbake på onsdag, før du bøyer seg igjen i noen form for nedsmelting.
Læring eksperiment, som fikk et krasj-kurs i rasisme, Holocaust-fornektelse og sexisme høflighet av Twitter-brukere, ble slått tilbake på over natten, og viste seg å være i drift i en mer fornuftig måte. Microsoft hadde tidligere gått gjennom boten tweets og fjernet de mest støtende og lovet kun for å gi eksperimentet tilbake online hvis selskapets ingeniører kunne “bedre forutse ondsinnede hensikter som er i konflikt med våre prinsipper og verdier”.
Men på ett punkt Tay twitret om å ta stoff, foran politiet, ikke mindre.
Tay deretter begynte å tvitre ut av kontroll, spamming sine mer enn 210,000 tilhengere med samme tweet, og sa: “Du er for rask, kan du ta en pause …” over og over.
Microsoft svarte med å gjøre Tay sin Twitter-profil privat, hindre noen fra å se tweets, i kraft av å ta den i frakoblet modus igjen.
Tay er skapt i bildet av en tenåringsjente og er utformet for å arbeide med millennials for å forbedre sin evne til å konversere via maskin-læring. Dessverre det var sårbare for tankevekkende tweets, spørre avskyelig svar.
Dette er ikke første gang Microsoft har lansert offentlig-mot AI chatbots. Kinesiske XiaoIce chatbot lykkes i samspill med mer enn 40 millioner mennesker over Twitter, Linje, Weibo og andre nettsteder, men selskapets eksperimenter målretting 18 – til 24-åringer i OSS på Twitter har resultert i et helt annet dyr.
- Tech industrien ønsker å bruke kvinnenes stemmer – de bare ikke vil lytte til dem
- Microsoft ‘dypt lei meg for rasistiske og sexistiske tweets og AI chatbot