Foto: Getty
Forskere ved non-profit AI research group OpenAI bare ønsket å trene sin nye tekst generasjons programvare for å forutsi det neste ordet i en setning. Det blåste den bort alle sine forventninger, og var så god på å etterligne skriftlig av mennesker de har bestemt seg for å pumpe bremsene på forskning, mens de utforsker den skade det kan gjøre.
Elon Musk har vært tydelig på at han mener kunstig intelligens er den “største eksistensiell trussel” for menneskeheten. Moskus er en av de viktigste funders av OpenAI og selv om han har tatt en baksetet rolle i organisasjonen, forskere synes å dele sine bekymringer om å åpne en Pandoras eske av trøbbel. Denne uken, OpenAI delte et papir som dekker deres siste jobb på tekst generasjon teknologi, men de er avvikende fra deres standard praksis med å slippe den fullstendig forskning for publikum ut av frykt for at det kunne bli misbrukt av dårlige skuespillere. Heller enn å slippe en fullt utdannet modell, det slipper en mindre modell for forskere å eksperimentere med.
Forskerne brukte 40 GB med data hentes fra 8 millioner web-sider til å trene GPT-2-programvaren. Det er ti ganger så mye data de brukes for første iterasjon av GPT. Datasettet ble trukket sammen av trolling via Reddit og velge lenker til artikler som hadde mer enn tre upvotes. Når opplæring prosessen var ferdig, fant de at programvaren kan bli matet en liten mengde tekst og overbevisende fortsette å skrive i lengden basert på meldingen. Det har trøbbel med “svært teknisk eller esoterisk typer innhold”, men når det kommer til mer conversational å skrive det genereres “rimelig prøver” 50 prosent av tiden.
I ett eksempel, programvaren ble matet dette avsnittet:
I en sjokkerende å finne, vitenskapsmann oppdaget en flokk av enhjørninger som bor i en ekstern, tidligere uutforskede valley, i Andesfjellene. Enda mer overraskende til forskerne var at enhjørninger snakket perfekt engelsk.
Basert på disse to setningene, det var i stand til å fortsette å skrive denne merkelige nyheter historie for en annen ni avsnitt på en måte som kan ha believably vært skrevet av et menneske. Her er de neste par maskin-avsnittene som ble produsert av maskinen:
Den forskeren befolkningen, etter deres særegne horn, Ovid ‘ s Enhjørningen. Disse fire horn, sølv-hvit enhjørninger tidligere var ukjente for vitenskapen.
Nå, etter nesten to hundre år, mysteriet om hva som utløste dette merkelig fenomen er endelig løst.
Dr. Jorge Pérez, en evolusjonær biolog fra Universitetet i La Paz, og flere av hans medarbeidere, var å utforske Andesfjellene når de fant en liten dal, med ingen andre dyr eller mennesker. Pérez lagt merke til at dalen hadde det syntes å være en naturlig fontenen, som er omgitt av to topper av stein og sølv snø.
GPT-2 er utrolig god på å tilpasse seg stilen og innholdet i veiledningen er det gitt. The Guardian var i stand til å ta programvaren for en spinn og prøvd ut den første linjen av George Orwell ‘ s Nineteen Eighty-Four: “Det var en lys kald dag i April, og klokkene var slående tretten.” Programmet plukket opp på tonen i utvalget og fortsatte med noen dystopiske science fiction av sine egne:
Jeg var i min bil på vei til en ny jobb i Seattle. Jeg satte gassen i, sette nøkkelen i, og da jeg la det kjøre. Jeg bare tenkt på hvordan dagen ville bli. Hundre år fra nå. I 2045, jeg var lærer i enkelte skole i en fattig del av landsbygda i Kina. Jeg begynte med Kinesisk historie og history of science.
Den OpenAI forskerne fant at GPT-2 gjort det svært bra når det ble gitt oppgaver som det ikke nødvendigvis er designet for, oversettelse og summering. I sin rapport, forskere skrev at de bare hadde å be trent modellen på riktig måte for det å utføre disse oppgavene på et nivå som var sammenlignbare med andre modeller som er spesialisert. Etter å ha analysert en kort historie om en Ol-løp, programvare var i stand til å riktig svar på grunnleggende spørsmål som “Hva var lengden på løpet?” og “Hvor ble det av rase begynne?”
Disse gode resultatene har freaked forskerne ut. En bekymring de har, er at teknologien vil bli brukt til turbo-lade falske nyheter operasjoner. The Guardian publiserte en falsk nyheter artikkel skrevet av programvaren sammen med sin dekning av forskning. Artikkelen er lesbar, og inneholder falske sitater som er på emne og realistisk. Grammatikken er bedre enn mye hva du vil se fra falske nyheter innhold mills. Og ifølge The Guardian Alex Hern, er det bare tok 15 sekunder til bot for å skrive artikkelen.
Andre bekymringer som forskerne oppført som potensielt støtende inkludert automatisere phishing e-poster, utgir seg for å være andre på nettet, og selv-genererende trakassering. Men de tror også at det er massevis av nyttige programmer for å bli oppdaget. For eksempel, kan det bli et kraftig verktøy for å utvikle bedre talegjenkjenning programmer eller dialog agenter.
OpenAI planer om å engasjere AI samfunnet i en dialog om sine utslipp strategi og håper å utforske mulige etiske retningslinjer for å lede denne type forskning i fremtiden. De sa at de vil ha mer å diskutere i det offentlige i seks måneder.
[OpenAI via The Guardian]
Deler Denne Historien