Sociale medier har gjort det muligt selvudnævnte ‘AI influenter”, der ikke gør noget mere end en omskrivning af Elon Musk, at kontanter i på denne hype med lav kvalitet, i stykker. Resultatet er farligt
Gift 25 Jul 2018 kl 11: 00 BST
‘Overdrevne påstande i pressen om, at det muligt for computere er ikke enestående for vor tid.’
Illustration: Sarah Robbins
I juni sidste år, fem forskere på Facebook ‘ s Artificial Intelligence Research unit offentliggjort en artikel, der viser, hvordan robotter kan simulere forhandling-lignende samtaler.
Mens det for det meste robotter var i stand til at fastholde en sammenhængende dialog, fandt forskerne, at den software agenter tider ville generere mærkelige sætninger som: “Bolde har nul til mig, mig, mig, mig, mig, mig, mig.”
At være menneske: hvor realistisk er det, vi ønsker robotter til at være?
Læs mere
På at se disse resultater, holdet indså, at de havde undladt at medtage en constraint, at der er begrænset bots til at generere sætninger inden for de parametre, der er af talt engelsk, hvilket betyder, at de har udviklet en type af maskine-engelsk patois til at kommunikere indbyrdes. Disse resultater blev anset for at være temmelig interessant af andre eksperter på området, men ikke helt overraskende eller banebrydende.
En måned efter denne indledende forskning blev udgivet, Hurtig Selskab offentliggjorde en artikel med overskriften AI Er at Opfinde Sprog, som Mennesker ikke Kan Forstå. Skal Vi Stoppe Det?. Historien fokuserer næsten udelukkende på, hvordan robotter, der undertiden afviger fra standard-engelsk – hvilket ikke var den vigtigste konstatering af papir – og rapporteret, at efter forskere “realiseret deres bots var snakkende i et nyt sprog”, at de besluttede at trække stikket på hele forsøget, som om de robotter, der var på vej ud af kontrol.
Fast Company ‘ s historie gik viralt og sprede sig over hele internettet, hvilket fik en masse indhold-sultne publikationer til yderligere at fremme denne nye Frankenstein-agtig fortælling: “Facebook ingeniører i panik, skal du trække stikket ud på AI efter bots udvikle deres eget sprog,” en hjemmeside rapporterede. Ikke at stå tilbage, Solen foreslået, at hændelsen “, der nøje lignede det plot af Terminator, hvor en robot bliver selvbevidst og begynder at føre en krig på mennesker”.
Zachary Lipton, en assisterende professor i machine learning-afdelingen på Carnegie Mellon University, set med frustration som denne historie forvandlet fra “interessant-ish forskning” til “fordrejet lort”.
Overdrevne påstande i pressen om, at det muligt for computere er ikke enestående for vores tid, og i øvrigt går tilbage til oprindelsen af design selv
Ifølge Lipton, har i de senere år har en bredere interesse i emner som “machine learning” og “dyb læring” har ført til en strøm af denne type af opportunistiske journalistik, som misbruger forskning til formål at frembringe retweets og klik – han kalder det “AI misinformation epidemi”. Et stigende antal forskere, der arbejder i feltet dele Lipton ‘ s frustration, og bange for, at urigtige og spekulative historier om AI, som Facebook historie, vil skabe urealistiske forventninger til området, som i sidste ende kan true den fremtidige udvikling og ansvarlig anvendelse af nye teknologier.
Overdrevne påstande i pressen om, at det muligt for computere er ikke enestående for vores tid, og i øvrigt går tilbage til oprindelsen af computing i sig selv.
I februar 1946, hvor skolebus-store, besværlige Electronic Numerical Integrator and Computer (Eniac) blev præsenteret for medierne på en pressekonference, journalister beskrev det som en “elektronisk hjerne”, en “matematisk Frankenstein”, en “predictor og controller i vejret” og en “wizard”. I et forsøg på at tamp ned nogle af de hype omkring den nye maskine, den kendte Britiske fysiker DR Hartree offentliggjort en artikel i Nature, der beskriver, hvordan Eniac arbejdet på en enkel og unsensational måde.
Til sin store forfærdelse, London Times offentliggjorde en historie, der trak kraftigt på sin forskning med titlen En Elektronisk Hjerne: at Løse Indviklede Problemer; Ventiler med en Hukommelse. Hartree straks svarede med et brev til redaktøren, siger, at udtrykket “elektronisk hjerne”, var vildledende, og at maskinen var “ingen erstatning for den menneskelige tanke”, men skaden var sket – Eniac var for evigt kendt i pressen som “hjerne-maskine”.
Det var en lignende historie i Usa, efter at Frank Rosenblatt, ingeniør ved Cornell Aeronautiske Laboratorium, præsenteret en rudimentær machine-learning algoritme kaldet “perceptron” til pressen i 1958. Mens “perceptron” kun kunne blive uddannet til at genkende et begrænset udvalg af mønstre, offentliggjorde New York Times en artikel, der hævder, at den algoritme, der var en “elektronisk hjerne”, som kan “lære sig”, og en dag ville snart “være i stand til at gå, tale, se, skrive, reproducere sig selv og være bevidst om sin egen eksistens”.
Mens de svimlende hype omkring AI hjalp med at generere midler til forskere på universiteterne og i militæret, og ved slutningen af 1960’erne blev det mere og mere klart, at mange AI pionerer, at de havde groft undervurderet vanskelighederne ved at simulere den menneskelige hjerne i maskiner. I 1969, Marvin Minsky’, der havde udtalt kun otte år tidligere, at maskinerne ville overgå mennesker i almindelighed intelligens i hans levetid, var medforfatter til en bog med Seymour Papert, der beviser, at Rosenblatt ‘ perceptron kunne ikke gøre så meget de eksperter, der engang havde lovet, og var ikke nær så intelligente, som medierne havde ladet på.
Minsky ‘og Papert’ s bog gennemtrængt forskningsverdenen med en smitsom tvivl om, at sprede sig til andre områder, fører vejen for en udgydelse AI myte debunking. I 1972, filosoffen Hubert Dreyfus offentliggjort en indflydelsesrig afretningslag mod tænker maskiner kaldet, Hvad Computere Kan ikke Gøre, og et år senere den Britiske matematiker James Lighthill udarbejdet en rapport om status for maskinen intelligens, som konkluderede, at “i ingen del af området har de opdagelser, der er gjort hidtil givet de betydelige konsekvenser, som derefter blev lovet”.
Dette trug af desillusion indvarslede, hvad der siden er blevet kaldt den første AI vinter, en periode, hvor midler til forskning på området faldet fra næsten helt. De medier, der havde smidt så mange oppustede forventninger til “elektroniske hjerner”, også mistet interessen. Mens der var små resurgences i 1980’erne og 1990’erne, AI var mere eller mindre et emne henvist til riget for plat sci-fi forfattere – dataloger ofte undgås udtrykket kunstig intelligens helt af frygt for at blive betragtet som “vilde øjne drømmere”.
•••
Isen af AI ‘ s første vinter kun fuldt trak sig tilbage i begyndelsen af dette årti, efter at en ny generation af forskere begyndt at offentliggøre papirer om succesfuld anvendelse af en teknik, der kaldes “dyb læring”.
Mens dette var grundlæggende en årtier gammel statistiske teknik svarende til Rosenblatt ‘ perceptron, stigninger i computerkraft og tilgængeligheden af enorme datasæt betød, at dyb læring var ved at blive mere praktiske opgaver, såsom talegenkendelse, billede anerkendelse og oversættelse. Som rapporter af dyb læring er “urimeligt effektivitet” cirkulerede blandt forskere, tilmeldinger på universiteter i machine-learning klasser steg, virksomheder begyndte at investere milliarder af dollars på at finde talent bekendt med de nyeste teknikker, og utallige er de nystartede forsøger at anvende AI til transport eller medicin eller økonomi blev grundlagt.
Som denne genopblussen fik undervejs, AI hype i medierne genoptaget efter en lang pause. I 2013, John Markoff skrev en feature i New York Times om, dyb læring og neurale netværk med overskriften Brainlike Computere, Lære af Erfaringerne. Ikke kun gjorde de afsnit, husker den medie-hype af 60 år tidligere, så gjorde nogle af artiklens påstande omkring hvad der blev gjort muligt med den nye teknologi. “I de kommende år,” Markoff skrev, “den tilgang, der vil gøre det muligt for en ny generation af kunstig intelligens-systemer, der vil udføre en funktion som mennesker gør med lethed: se, tale, lytte, navigere, manipulere og kontrollere.”
Siden da, er langt mere melodramatisk og overdrevne artikler om “AI apocalypse”, “kunstige hjerner”, “kunstig superintelligens” og “uhyggelig Facebook bot AIs” har fyldt news feed dagligt.
Lipton, en jazz saxofonist, der besluttede at gennemføre en Ph.d. i machine learning til at udfordre sig selv intellektuelt, siger, at disse hyped-up historier formere sig, gør det også frustration blandt forskere med, hvordan deres arbejde bliver rapporteret på af journalister og forfattere, der har en overfladisk forståelse af teknologi.
Hvad Lipton finder mest bekymrende, er dog ikke teknisk analfabetisme blandt journalister, men hvordan sociale medier har tilladt selvudnævnte “AI influencers”, der ikke gør noget mere end en omskrivning af Elon Musk på deres Medium blogs for at kontanter i på denne hype med lav kvalitet, TED-style puff stykker. “At gøre reelle fremskridt i AI, kræver en offentlig diskurs, der er sober og informeret,” siger Lipton. “Lige nu diskurs er så helt sindsforvirret det er umuligt at sige, hvad der er vigtigt og hvad er ikke.”
Der er politiske beslutningstagere inderligt at have møder for at diskutere den rettigheder af robotter, når de skal være tale om diskrimination i algoritmisk beslutningstagning
Zachary Lipton
Lipton er ikke den første person til at udtrykke bekymring over den nye AI hype cycle, og hvor det er ved at tage felt. Sidste år, den banebrydende roboticist Rodney Brooks skrev en artikel kritiserer “hysteri om fremtiden for kunstig intelligens” for MIT Technology Review. I 2013, New York University professor Gary Marcus skrev en artikel i the New Yorker, hvor han argumenterede for, at den hype, der vil skabe urealistiske forventninger efterfulgt af desillusion, der fører til en anden AI vinteren.
Men for Lipton, problemet med det aktuelle hysteri er ikke så meget risikoen for endnu en vinter, men mere, hvordan det fremmer historier, der distraherer fra at trykke på spørgsmål i feltet. “Folk er bange for, om de forkerte ting,” siger han. “Der er politikere inderligt at have møder for at diskutere den rettigheder af robotter, når de skal være tale om diskrimination i algoritmisk beslutningsprocessen. Men dette spørgsmål er jord-og ædru, så ikke mange mennesker tager en interesse.”
•••
I Marts sidste år, Lipton startede sin egen blog til at forsøge at modvirke og dekonstruere nogle af de mest skadelige sensationspræget AI nyheder. Så langt, han har kaldt en “low-quality” profil af Elon Musk i Vanity Fair og ukritisk oversigt over Anthony Levandowski såkaldte AI kirke, blandt andre.
Sign up for the Guardian ‘ s daglige e-mail OS
Læs mere
Bloggen har fået en del opmærksomhed fra medierne, og har en af regelmæssige læsere, men Lipton ved, at hans indflydelse er begrænset. “Hvad der virkelig skal ske, er bedre uddannelse af journalister og mere integritet,” siger han. “Indtil det sker, min blog er bare en sten i strømfaldene af lort. Jeg er ikke at ændre retning af åen.”
Joanne McNeil, en forfatter, der undersøger nye teknologier, er enig i, at der er et problem med ukritisk, uninquiring tech journalistik, og ofte bruger Twitter til at gøre nar af Terminator-stil artikler. Men på samme tid, hun er træt af at pege fingre udelukkende på journalister og mener, at en af årsagerne til AI hype er en ulige fordeling af ressourcer.
“Hvis du sammenligner en journalist’ s indkomst for en AI forsker indkomst,” siger hun, “bliver det temmelig klart, temmelig hurtigt, hvorfor det er umuligt for journalister til at producere den type af nøje gennemtænkt skriver, at forskere vil have gjort deres arbejde.” Hun tilføjer, at mens mange forskere, der står til at drage fordel af hype, som en forfatter, der ønsker at kritisk undersøge disse teknologier, hun kun lider af det. “Der er få steder, man interesseret i at udgive nuanceret stykker og få redaktører, der har den nødvendige ekspertise til at redigere dem,” siger hun. “Hvis AI-forskere, der virkelig bekymrer sig om at være dækket omhyggeligt og kritisk, at de skulle komme sammen og finansiere en publikation, hvor forfattere kan være passende betalt for den tid, det tager for virkelig at grave i.”
Mens et tættere samspil mellem journalister og forskere ville være et skridt i den rigtige retning, Genevieve Bell, professor i engineering and computer science ved Australian National University, siger, at udrydde den hype i AI journalistik er ikke muligt. Bell forklarer at det er fordi, artikler om elektroniske hjerner eller skadelige Facebook bots er mindre om teknologi og mere om vores kulturelle håb og angst.
Vil computere være i stand til at tænke? Fem bøger til at hjælpe os med at forstå, AI
Læs mere
“Vi har fortalt historier om livløse ting, der kommer til livet for tusinder af år, og disse fortællinger indflydelse på, hvordan vi fortolker det, der sker nu,” Bell sagde. “Eksperter kan være virkelig hurtig til at afvise, hvordan deres forskning gør, at folk føler, men disse utopiske håb og dystopisk frygt er nødt til at være en del af de samtaler. Hype er i sidste ende et kulturelt udtryk, der har sin egen vigtige plads i diskursen.”
I sidste ende, Lipton er enig i, at der er et sted for spekulative at skrive om AI, og han erkender, hvor fantasi og følelser, som kan motivere undersøgelse på området. “Men jeg tror også, at grænsen mellem den vilde spekulation og reelle forskning er et lidt for spinkelt lige nu,” siger han. “Historien har vist os, det er en grænse, der skal overvåges, så vi kan skelne mellem, hvad der er vigtigt i den her og nu, og hvad er bare fantasi.”