Taylor Swift Truet med søksmål Mot Microsoft Over Rasistiske og Folkemord Chatbot Tay

Illustration for article titled Taylor Swift Threatened Legal Action Against Microsoft Over Racist and Genocidal Chatbot Tay Foto: Getty

Taylor Swift prøvde å blokkere Microsoft fra å bruke navnet Tay til en chatbot som ble til en fordervet rasistiske troll fartøy, ifølge en ny bok fra Microsoft President Brad Smith.

I Mars 2016 Microsoft har introdusert en ny chatbot i USA som ble bygget for å snakke med unge voksne og tenåringer på sosiale medier. I henhold til Smiths bok Verktøy og Våpen, co-skrevet av Microsoft kommunikasjonsdirektør Carol Ann Browne, selskapet som opprinnelig ble introdusert av den bot som XiaoIce i Kina-markedet, der det ble brukt av millioner og innlemmet i banktjenester, nyheter og underholdning plattformer.

“Det chatbot synes å ha fylt en sosial nød i Kina, med brukere vanligvis tilbringe femten til tjue minutter på å snakke med XiaoIce om dagen, problemer, håp og drømmer,” Smith og Browne skrev. “Kanskje hun fyller et behov i et samfunn der barn ikke har søsken?”

Imidlertid, når Microsoft bestemte seg for å prøve det ut i Amerika, AI-basert Twitter bot, kalt Tay, var ikke så vellykket. Boten ble bygget for å lære hvordan å snakke gjennom samspill med andre på Twitter, og det postet svar på tweets basert på hva folk hadde å si til det.

Alle som har brukt noe tid på Twitter vet at var en dømt eksperiment. Sikker nok, i mindre enn 24 timer etter at den ble utgitt, troll skadet Tay. Som Randen skrev på den tiden, “Twitter lært Microsofts AI chatbot for å være rasistisk rasshøl i mindre enn en dag.”

Et verktøy som var populære og tilsynelatende fordelaktig i Kina mislyktes her fordi Microsoft ikke forvente at Amerikanerne på sosiale medier til å være giftige og rasistisk.

Microsoft tok kontoen ned umiddelbart. Neste dag selskapet utgitt en blogg unnskyldning for Tay er upassende oppførsel. “Vi er dypt lei meg for utilsiktet støtende og sårende tweets fra Tay, som ikke representerer hvem vi er eller hva vi står for, heller ikke hvordan vi har konstruert Tay,” innlegget sa.

Kontoen ikke bare opprørt folk som var fornærmet av den rasistiske parroting, det ser også ut til å ha opprørt Taylor Swift. Som Smith forteller i sin bok:

Jeg var på ferie da jeg gjorde den feilen å se på telefonen min under middagen. En e-post hadde nettopp kommet fra en Beverly Hills advokat som introduserte seg selv ved å fortelle meg, “Vi representerer Taylor Swift, på vegne dette er sendt til deg.”… Han fortsatte med å si at “navnet” Tay,’ som jeg er sikker på at du må vite, som er nært forbundet med vår klient.”… Advokaten gikk på å argumentere for at bruken av navnet Tay opprettet en falsk og villedende sammenhengen mellom den populære sangeren og våre chatbot, og at det krenket føderale og statlige lover.

Smith legger til at Microsoft ‘ s varemerke advokater uenige, men Microsoft var ikke interessert i å slåss Swift, så selskapet umiddelbart begynte å diskutere et nytt navn. Han tok den hendelsen som et bemerkelsesverdig eksempel på “ulik kulturell praksis” i USA og Kina.

I 2018, bot relansert som Zo, en versjon av Tay som var opplært til å koble med tenåringer, men også programmert til å unngå å snakke om politikk, rase og religion. Hvis du aldri har hørt om Zo, er det fordi Zo er kjedelig.

Høres ut som de har endret navnet, men faktisk gjorde bot mer som Taylor Swift.

Microsoft nektet å kommentere noe mer til denne historien. Swift gjorde ikke svarer på en forespørsel om kommentar.

Deler Denne Historien


Date:

by