Microsoft forrige uke ba om unnskyldning for sin Tay chatbot er dårlig oppførsel. Det tok machine learning system i frakoblet modus, er bare 24 timer i dens korte liv, etter Twitter-troll fikk det til å fornekte Holocaust og lokke fram pro-Nazistiske og anti-feministisk bemerkninger.
“Vi er dypt lei meg for utilsiktet støtende og sårende tweets fra Tay, som ikke representerer hvem vi er eller hva vi står for, heller ikke hvordan vi har konstruert Tay,” sa Peter Lee, corporate vice president i Microsoft Research.
Selskapet lanserte Tay på Twitter med mål om å lære om og å forbedre kunstig intelligens ved å ha den samhandle med 18 – til 24-år gamle AMERIKANSKE Internett-brukere.
Microsoft sier en e-gjengen tvunget til å ta Tay ned.
“Dessverre, i løpet av de første 24 timer for å komme på nettet, vi ble oppmerksom på en koordinert innsats av enkelte brukere å misbruke Tay er kommentere ferdigheter til å ha Tay svare på upassende måter,” en Microsoft-talsmann sa i en uttalelse gitt til TechNewsWorld av selskapet rep Lenette Larson. “Som et resultat, har vi tatt Tay-modus, og gjør justeringer.”
Trollene angivelig kom fra 4Chan nettstedet.
“c u snart mennesker trenger søvn nå så mange samtaler i dag thx,” er siste melding lagt ut på TayTweets Twitter-konto.
En Bratt Læringskurve
Dette er ikke første gang Microsoft har stubbed sin tå på Nettet.
Den Tay fiaskoen “er tredje gangen jeg har sett dem ikke klarer å forutse hvordan folk oppfører seg dårlig, noe som virker merkelig siden tech bedrifter er i stor grad består av yngre gutta som har sannsynlig, på ett eller annet tidspunkt, nylig utstilt lik oppførsel,” sa Rob Enderle, rektor analytiker på Enderle Group.
“For mange år siden, Microsoft satt opp en avatar-baserte chat rom for unge tenåringer, og jeg … har funnet en mann med en penis for sin avatar forsøker å snakke til unge jenter og rapporterte det,” fortalte han TechNewsWorld. “Viste det seg at det var en mann med to døtre.”
Microsoft trakk ut pluggen på chat-rommet etter noen flere hendelser, Enderle sa.
Et par år senere, er det lansert en felles markedsføringsaktiviteter med Intel kalt “Digital Glede,” og “jeg spurte om de hadde sjekket om det var en porno nettsted med samme navn, og de sa nei. Viste seg at det var en stor en i Frankrike de hadde å kjøpe,” la han til, og “[OSS]$10 millioner kampanjen ble en fiasko.”
Ingen Intelligens Her
Microsoft ‘ s beskrivelse av Tay som et kunstig intelligens chat-system ikke sitte godt med Stuart Russell, professor i informatikk
University of California i Berkeley.
“Det virker latterlig å kalle dette en AI-system, som forstår ingenting av innholdet av noe den mottar eller sender ut,” sa han til TechNewsWorld. “Det er som en papegøye som lærer å si uhøflig ord fra sin eier.”
Folk Oppfører Seg Dårlig
Svar til Tay illustrerer hvor vanskelig det kan være å styre atferd på Nettet. Andre forsøk på å gjøre har backfired, som Reddit fant ut i fjor når han er sint medlemmer tvunget interim CEO
Ellen Pao å trekke seg etter at hun hadde utestengt fem subreddits, to av dem var fett-presse, en rasist, en homofob og siste målretting spillere.
Hva Twitter kan gjøre med problemet?
“Vi trenger ikke kommentere individuelle kontoer, for personvern-og sikkerhetshensyn” Twitter-talsmann Nu Wexler fortalte TechNewsWorld, som peker til selskapets
regler og til en forklaring av
prosessen for rapportering av mulige brudd.
Den Tay fiaskoen “viser en av de store utfordringene med både analyse og AI — at noen dårlig skuespiller eller aktører vil ødelegge prosessen med en problematisk utfallet,” analytiker Enderle sa.
“Dette taler også delvis grunnen til at det er stor bekymring for fiendtlig AIs,” fortsatte han. “Dårlig gjort programmering kan resultere i maskiner som kunne gjøre skade på en massiv skala.”
Chatbots “trenger å bli undervist i hvordan å håndtere dårlig oppførsel før det slippes ut i naturen,” Enderle foreslått, “og må overvåkes nøye i sine innledende læring faser for å sikre at de ikke lærer dårlige ting.”