Microsoft sidste uge har undskyldt over for sine Tay ‘ s chatbot dårlig opførsel. Det tog machine learning system offline, kun 24 timer i sit korte liv, efter Twitter-trolde fik det til at benægte Holocaust og fremkalde pro-Nazistiske og anti-feministiske bemærkninger.
“Vi er dybt ked af, for utilsigtede stødende og sårende tweets fra Tay, som ikke er udtryk for, hvem vi er eller hvad vi står for, og heller ikke, hvordan vi har designet Tay,” sagde Peter Lee, corporate vice president i Microsoft Research.
Selskabet lancerede Tay på Twitter med det mål at lære om og forbedre den kunstige intelligens ved at have det interagere med 18 – til 24-årige AMERIKANSKE Web-brugere.
Microsoft siger, at en e-bande tvunget til at tage Tay ned.
“Desværre, inden for de første 24 timer for at komme online, vi blev opmærksomme på en koordineret indsats fra nogle brugere, at misbrug Tay’ s kommentar færdigheder til at have Tay reagere på uhensigtsmæssige måder,” en Microsoft-talsmand sagde i en erklæring, forudsat at TechNewsWorld af virksomheden rep Lenette Larson. “Som et resultat, vi har taget Tay offline og foretager justeringer.”
De trolde, angiveligt kom fra 4Chan hjemmeside.
“c u snart mennesker har brug for søvn nu, så mange samtaler i dag, thx,” er den sidste meddelelse på TayTweets Twitter-konto.
En Stejl Indlæringskurve
Det er ikke første gang Microsoft har stubbed sin tå på Nettet.
Tay sammenbrud “er tredje gang, jeg har set dem ikke til at forudse, folk opfører sig dårligt, som synes mærkeligt, da tech virksomheder er i høj grad består af yngre fyre, der har sandsynlighed for, på et eller andet tidspunkt, for nylig udstillet lignende adfærd,” bemærkede Rob Enderle, ledende analytiker hos Enderle Group.
“År siden, Microsoft oprettet en avatar baseret chat-rummet for unge teenagere, og jeg … fandt en fyr med en penis til hans avatar forsøger at tale til de unge piger og rapporteres det,” fortalte han TechNewsWorld. “Det viste sig, at det var en mand med to døtre.”
Microsoft trak stikket på chatten, efter et par hændelser, Enderle sagde.
Et par år senere, lancerede en fælles markedsføringsindsats med Intel kaldes “Digital Glæde,” og “jeg spurgte, om de havde kontrolleret, om der var en porno hjemmeside af samme navn, og de sagde nej. Viste sig at der var en stor en i Frankrig, at de var nødt til at købe,” tilføjede han, og “[OS]$10 millioner kampagnen var en fiasko.”
Ingen Intelligens Her
Microsoft ‘ s beskrivelse af Tay som en kunstig intelligens chat-system ikke sidde godt med Stuart Russell, en professor i datalogi ved
University of California i Berkeley.
“Det synes latterligt at kalde dette et AI-system, som den forstår intet af indholdet til noget, det modtager eller sender ud,” fortalte han TechNewsWorld. “Det er ligesom en papegøje, der lærer at sige uhøflige ord fra sin ejer.”
Folk Opfører Sig Dårligt
Svar til Tay illustrerer, hvor svært det kan være at styre adfærd på Nettet. Andre forsøg har bagslag, som Reddit fandt ud af sidste år, hvor vred medlemmer tvunget midlertidig CEO
Ellen Pao at træde tilbage, efter hun havde forbudt fem subreddits, hvoraf to var fedt at hænge nogen ud, en racistisk, en homofobiske og det sidste rettet mod gamere.
Hvad kan Twitter gøre ved problemet?
“Vi vil ikke kommentere på de enkelte konti, privatlivets fred og af sikkerhedsmæssige årsager,” Twitter talsmand Nu Benzinstation) fortalte TechNewsWorld, der peger på selskabets
regler og til en forklaring af
processen for indberetning af eventuelle overtrædelser.
Tay sammenbrud “showcases en af de store bekymringer med både analytics-og AI — at nogle dårlig skuespiller eller aktører, der vil ødelægge processen med en problematisk resultat,” analytiker Enderle sagde.
“Dette taler også delvist, hvorfor der er stor bekymring for, om fjendtlige AIs,” fortsatte han. “Dårligt gjort programmering kan resultere i, at maskiner, der kunne gøre skade på en massiv skala.”
Chatbots “har brug for at blive undervist i, hvordan man skal behandle med dårlig opførsel, før de frigives i naturen,” Enderle foreslog, “og overvåges nøje i deres oprindelige lære faser for at sikre, at de ikke lærer om dårlige ting.”