Sosiale medier har tillatt selverklærte ‘AI påvirkere’ som ikke gjør noe mer enn omskrive Elon Musk å tjene penger på dette hysteriet med lav kvalitet, biter. Resultatet er farlig
Tor 25 Juli 2018 11.00 BST
‘Overdrevne påstander i pressen om observasjon av datamaskiner er ikke enestående for vår tid.’
Illustrasjon: Sarah Robbins
I juni i fjor, fem forskere på Facebook Kunstige Intelligens Research unit publisert en artikkel som viser hvordan roboter kan simulere forhandling-som samtaler.
Mens for det meste roboter var i stand til å opprettholde sammenhengende dialog, forskerne fant at programvaren agenter ville generere noen ganger merkelige setninger som: “Baller har null til meg meg meg meg meg meg meg til.”
Å være menneske: hvor realistisk er det vi ønsker roboter til å være?
Les mer
Ved å se på disse resultatene, team innså at de hadde unnlatt å inkludere en begrensning som begrenset roboter for å generere setninger innenfor parametrene for muntlig engelsk, noe som betyr at de utviklet en type maskin-engelsk patois til å kommunisere seg imellom. Disse funnene ble vurdert til å være ganske interessant av andre eksperter på området, men ikke helt overraskende eller banebrytende.
En måned etter denne innledende forskning ble utgitt, Rask Selskapet har publisert en artikkel med tittelen AI Er å finne Opp Språket Mennesker ikke Kan Forstå. Skal Vi Stoppe Det?. Historien fokusert nesten utelukkende på hvordan roboter tidvis skilte seg fra standard engelsk – som ikke var det viktigste å finne av papir – og rapporterte at etter forskere “realisert sine roboter var chattering i et nytt språk” de bestemte seg for å trekke ut kontakten på hele eksperimentet, som om roboter var noen vei ut av kontroll.
Rask Selskapets historie gikk viral og spredt over hele internett, ber en slew av innhold-sulten publikasjoner for å ytterligere øke denne nye Frankenstein-esque fortelling: “Facebook ingeniører panikk, trekk pluggen på AI etter bots utvikle sitt eget språk,” en nettside som er rapportert. For ikke å bli utkonkurrert, Solen foreslått at hendelsen “tett lignet tomten av Terminator som en robot blir selvbevisst og begynner å føre en krig mot mennesker”.
Zachary Lipton, assisterende professor ved maskinen læring avdeling ved Carnegie Mellon University, sett med frustrasjon som denne historien forvandlet fra “interessant-ish forskning” til “sensationalized dritt”.
Overdrevne påstander i pressen om observasjon av datamaskiner er ikke enestående for vår tid, og faktisk går tilbake til opprinnelsen av computing seg selv
I henhold til Lipton, i de siste årene bredere interesse for temaer som “machine learning” og “dyp læring” har ført til en flom av denne typen av opportunistiske journalistikk, som misrepresents forskning i den hensikt å generere retweets og-klikk – han kaller det “AI feilinformasjon epidemi”. Et økende antall forskere som arbeider innen feltet dele Lipton ‘ s frustrasjon, og er redd for at de unøyaktige og spekulative historier om AI, som Facebook historien, vil skape urealistiske forventninger for feltet, som kunne til slutt true framtidige utvikling og ansvarlig bruk av ny teknologi.
Overdrevne påstander i pressen om observasjon av datamaskiner er ikke enestående for vår tid, og faktisk går tilbake til opprinnelsen av computing seg selv.
I februar 1946, når skolen buss-størrelse, tungvint Electronic Numerical Integrator and Computer (Eniac) ble lagt fram for mediene på en pressekonferanse, journalister beskrevet det som en “elektronisk hjerne”, en “matematisk Frankenstein”, en “prediktor og kontrolleren i været”, og en “veiviser”. I et forsøk på å dempe ned noen av hype rundt den nye maskinen, anerkjente Britiske fysikeren DR Hartree publisert en artikkel i Nature som beskriver hvordan Eniac jobbet i en grei og unsensational måte.
Mye til sin forferdelse, London Times publiserte en historie som hvilte tungt på sin forskning med tittelen En Elektronisk Hjerne: Løse Abstruse Problemer; Ventiler med et Minne. Hartree umiddelbart svarte med et brev til redaktøren, som sier at begrepet “elektronisk hjerne” var villedende og at maskinen var “ingen erstatning for den menneskelige tanke”, men skaden var gjort – Eniac var alltid kjent av pressen som “hjernen maskin”.
Det var en lignende historie i Usa etter at Frank Rosenblatt, en ingeniør ved Cornell Aeronautical Laboratorium, presenteres en enkel maskin-læring algoritme kalt “perceptron” til pressen i 1958. Mens “perceptron” kan bare være opplært til å gjenkjenne en begrenset utvalg av mønstre, the New York Times publiserte en artikkel som hevder at algoritmen ble en “elektronisk hjerne” som kan “lære seg”, og en dag ville snart være i stand til å gå, snakke, se, skrive, reprodusere seg selv og være bevisst sin egen eksistens”.
Mens svimmel hype rundt AI bidratt til å generere midler til forskere ved universiteter og i det militære, ved slutten av 1960-tallet det ble stadig mer åpenbart for mange AI pionerene at de hadde grovt undervurdert vanskeligheten av å simulere den menneskelige hjernen i maskiner. I 1969, Marvin Minsky, som hadde uttalt bare åtte år tidligere at maskiner vil overgå mennesker i generell intelligens i sin levetid, co-forfattet en bok med Seymour Papert beviser at Rosenblatt er perceptron kunne ikke gjøre så mye ekspertene gang hadde lovet, og var ikke på langt nær så intelligent som media hadde la på.
Minsky og Papert bok suffused forskningsmiljøer med en smittsom tvil om at spredt seg til andre felt, som fører til rette for et sprik AI myte debunking. I 1972, filosofen Hubert Dreyfus publisert en innflytelsesrik screed mot å tro maskiner kalt Hva Datamaskiner ikke Kan Gjøre, og et år senere den Britiske matematikeren James Lighthill produsert en rapport om tilstanden av maskin intelligens, som konkluderte med at “i noen del av feltet har de funn som er gjort så langt produsert av stor betydning at da var lovet”.
Dette trau av desillusjon innledet hva har siden blitt kalt den første AI vinter, i en periode der midler til forskning i feltet droppet nesten helt. Media, som hadde trommet opp så mange kunstig høye forventninger til “elektroniske hjerner”, også mistet interessen. Mens det var liten resurgences i 1980-og 1990-tallet, AI var mer eller mindre et emne henvist til riket av corny sci-fi-forfattere – datamaskinen forskere ofte unngås begrepet kunstig intelligens helt i frykt for å bli sett på som “wild-eyed dreamers”.
•••
Isen av AI ‘ s første vinteren bare fullt trakk seg i begynnelsen av dette tiåret etter en ny generasjon av forskere begynte å publisere papirer om vellykket bruk av en teknikk som kalles “deep læring”.
Mens dette var et fundamentalt flere tiår gamle, statistisk teknikk som ligner Rosenblatt er perceptron, øker i datakraft og tilgjengelighet av store datasett betydde at dybdekunnskap var blitt praktisk for oppgaver som for eksempel talegjenkjenning, image anerkjennelse og oversettelse. Som rapporter om dyp læring er “urimelig effektivitet” har sirkulert blant forskere, registreringer ved universiteter i maskin-læring klasser steg, selskaper begynte å investere milliarder av dollar for å finne talent kjent med de nyeste teknikkene, og utallige startups forsøk på å bruke AI til transport eller medisin eller økonomi ble grunnlagt.
Som denne oppblomstring fikk under måte, AI hype i media igjen etter en lang pause. I 2013, John Markoff skrev en kronikk i New York Times om dybdekunnskap og nevrale nettverk med overskriften Brainlike Datamaskiner, Lære av Erfaring. Ikke bare gjorde den tittelen husker media hype på 60 år tidligere, så gjorde noen av artikkelens påstander om hva som ble gjort mulig av den nye teknologien. “I årene som kommer,” Markoff skrev “tilnærming vil gjøre det mulig for en ny generasjon av kunstig intelligens systemer som vil utføre noen funksjon som mennesker gjør med letthet: se, snakke, lytte, navigere, manipulere og kontrollere.”
Siden da, langt mer melodramatisk og overdrevet artikler om “AI apocalypse”, “kunstig intelligens”, “kunstig superintelligens” og “skumle Facebook bot AIs” har fylt news feed daglig.
Lipton, jazz-saksofonist som bestemte seg for å gjennomføre en Doktorgrad i maskinen lære å utfordre seg selv intellektuelt, og sier at disse hyped-up historier formerer seg, så altfor gjør frustrasjon blant forskere med hvordan deres arbeid blir rapportert videre av journalister og skribenter som har en overfladisk forståelse av teknologien.
Hva Lipton finner mest problematisk, men er ikke teknisk analfabetisme blant journalister, men hvordan sosiale medier har tillatt selverklærte “AI påvirkere” som ikke gjør noe mer enn omskrive Elon Musk på deres Medium blogger til å tjene penger på dette hysteriet med lav kvalitet, TED-stil puff stykker. “Å gjøre reell fremgang i AI krever en offentlig diskurs som er nøktern og informert,” Lipton sier. “Akkurat nå, diskursen er så helt sinnsforvirret det er umulig å si hva som er viktig og hva er ikke.”
Det er beslutningstakere oppriktig å ha møter for å diskutere rettigheter av roboter når de skal snakke om diskriminering i algoritmisk beslutningsprosesser
Zachary Lipton
Lipton er ikke den første personen til å uttrykke bekymring for den nye AI hype cycle og hvor det er å ta feltet. Siste år, den banebrytende roboticist Rodney Brooks skrev en artikkel kritiserer “hysteri om fremtiden for kunstig intelligens” for MIT Technology Review. I 2013, New York University professor Gary Marcus skrev en artikkel for the New Yorker, der han hevdet at hypen vil skape urealistiske forventninger etterfulgt av desillusjon som fører til en annen AI vinteren.
Men for Lipton, problemet med dagens hysteri er ikke så mye risiko av en vinter, men mer hvordan det fremmer historier som distraherer fra presserende temaer i feltet. “Folk er redd for om feil ting,” sier han. “Det er politikerne oppriktig å ha møter for å diskutere rettigheter av roboter når de skal snakke om diskriminering i algoritmisk beslutningsprosesser. Men dette problemet er terrestriske og edru, så ikke mange mennesker tar en interesse.”
•••
I Mars i fjor, Lipton startet sin egen blogg for å prøve å counter-balanse og dekonstruere noen av de mest ødeleggende sensasjoner AI nyheter. Så langt, har han kalte en “lav kvalitet” profil av Elon Musk i Vanity Fair og ukritisk oversikt over Anthony Levandowski såkalte AI kirken, blant andre.
Registrer deg for å Verge OSS e-post daglig
Les mer
Bloggen har fått litt oppmerksomhet fra media og har en vanlig lesere, men Lipton vet at hans innflytelse er begrenset. “Det som virkelig trenger å skje er bedre opplæring av journalister og mer integritet, sier han. “Inntil det skjer, bloggen min er bare en stein i stryk av dritt. Jeg er ikke endre retningen på strømmen.”
Joanne McNeil, en forfatter som undersøker nye teknologier, er enig i at det er et problem med ukritisk, uninquiring tech journalistikk, og ofte bruker Twitter til å gjøre narr av Terminator-stil artikler. Men på samme tid hun er lei av å peke finger utelukkende på journalister og mener at en av årsakene til AI hype er en ujevn fordeling av ressurser.
“Hvis du sammenligner en journalist inntekter til en AI forsker inntekt,” sier hun, “det blir ganske klart ganske raskt hvorfor det er umulig for journalister å produsere den type nøye tenkt gjennom å skrive at forskere vil ha gjort om deres arbeid.” Hun legger til at mens mange forskere stand til å dra nytte av hype, som en forfatter som ønsker å kritisk undersøke disse teknologiene, hun bare lider av det. “Det er få utsalgssteder interessert i å publisere nyansert stykker og få redaktører som har kompetanse til å redigere dem,” sier hun. “Hvis AI forskere virkelig bryr seg om blir dekket gjennomtenkt og kritisk, de bør komme sammen og finansiere en publikasjon der forfattere kan være riktig betalt for tiden det tar å virkelig grave i.”
Mens nærmere samspillet mellom journalister og forskere ville være et skritt i riktig retning, Genevieve Bell, professor i ingeniørfag og informatikk ved Australian National University, sier at stempling ut hype i AI journalistikk er ikke mulig. Bell forklarer at dette er fordi artikler om elektroniske hjerner eller pernisiøs Facebook boter er mindre om teknologi og mer om våre kulturelle håp og bekymringer.
Vil maskiner være i stand til å tenke? Fem bøker for å hjelpe oss å forstå AI
Les mer
“Vi har fortalt historier om merkelige ting som kommer til liv i tusenvis av år, og disse fortellingene påvirker hvordan vi tolker hva er det som skjer nå,” Bell sier. “Eksperter kan være veldig rask til å avfeie hvordan deres forskning gjør at folk føler seg, men disse utopisk håp og dystopiske frykten må også være en del av samtalene. Hypen er til syvende og sist et kulturelt uttrykk som har sine egne viktig plass i diskursen.”
Til slutt, Lipton er enig i at det er et sted for spekulativt å skrive om kunstig INTELLIGENS og han erkjenner hvordan fantasi og følelser kan motivere henvendelse i feltet. “Men jeg tror også at grensen mellom vill spekulasjon og ekte forskning er litt for spinkel akkurat nå,” sier han. “Som historien viser oss, dette er en grense som må overvåkes slik at vi kan skille mellom hva som er viktig her og nå, og det er bare fantasi.”