Foto: Getty
Forskere ved non-profit AI forskning gruppe OpenAI bare ønskede at uddanne deres nye tekst generation af software til at forudsige næste ord i en sætning. Det blæste væk alle deres forventninger og var så god til at efterligne skrivning af mennesker, at de har besluttet at pumpe bremsen på forskning, mens de udforsker den skade det kan gøre.
Elon Musk har været klart, at han mener, at kunstig intelligens er den “største eksistentiel trussel” mod menneskeheden. Moskus er en af de primære bidragsydere til OpenAI og selv om han har taget et bagsæde rolle i organisationen, dens forskere synes at dele sine bekymringer om at åbne en Pandoras æske af problemer. I denne uge, OpenAI delt et papir, der dækker deres seneste arbejde på tekst generation af teknologi, men de er afvigende fra deres standard praksis for at lægge den fulde forskning til offentligheden af frygt for, at det kan være misbrugt af dårlige skuespillere. Snarere end at slippe fuldt uddannet model, det er at frigive en mindre model for forskere til at eksperimentere med.
Forskerne brugte 40 gb data trukket fra 8 millioner websider for at træne GPT-2 software. Det er ti gange den mængde data, som de, der anvendes til den første iteration af GPT. Datasættet blev trukket sammen af trolling via Reddit og valg af links til artikler, der havde mere end tre upvotes. Når uddannelsen var færdig, fandt de, at den software, der kunne fodres med en lille mængde af tekst og overbevisende fortsætte med at skrive på længde baseret på prompten. Det har problemer med “højt teknisk eller esoterisk typer af indhold”, men når det kommer til mere samtale skriver det genererede “rimelig prøver” 50 procent af tiden.
I et eksempel, den software, der blev fodret med dette afsnit:
I et chokerende at finde, videnskabsmand opdagede en flok enhjørninger, der bor i en fjerntliggende, hidtil uudforsket dalen, i Andes-Bjergene. Endnu mere overraskende for forskerne var, at enhjørninger talte perfekt engelsk.
Baseret på disse to sætninger, at det var i stand til at fortsætte med at skrive denne kuriøs nyhed for ni stykker på en måde, der kunne have believably blevet skrevet af et menneske. Her er de næste par maskine-afsnit, der blev produceret af maskinen:
Den videnskabsmand ved navn befolkningen, efter deres karakteristiske horn, Ovid ‘ s Enhjørningen. Disse fire-hornet, sølv-hvide enhjørninger tidligere var ukendte for videnskaben.
Nu, efter næsten to århundreder, mysteriet om, hvad der udløste dette underlige fænomen er endelig løst.
Dr. Jorge Perez, en evolutionær biolog fra Universitetet i La Paz, og flere kammerater, var at udforske Andesbjergene, når de fandt en lille dal, med ingen andre dyr eller mennesker. Pérez bemærket, at dalen var, hvad der syntes at være en naturlig springvand, omgivet af to toppe af sten og sølv sne.
GPT-2 er bemærkelsesværdigt gode til at tilpasse sig til den stil og indholdet af vejledningen det er givet. The Guardian var i stand til at tage softwaren i et spin og prøvede den første linje af George Orwells Nineteen Eighty-Four: “Det var en lyst kold dag i April, og urene var slående tretten.” Programmet samlet op på tonen i udvalg og fortsatte med nogle dystopisk science fiction af sine egne:
Jeg sad i min bil på vej til et nyt job i Seattle. Jeg sætter den gas i, sætte nøglen i, og så lader jeg det til at køre. Bare jeg vidste, hvad dagen ville være ligesom. Hundrede år fra nu. I 2045, jeg var lærer i nogle skole i en fattig del af landet i Kina. Jeg startede med Kinesisk historie og historien om videnskab.
Den OpenAI forskere har fundet ud af, at GPT-2 udført meget godt, når det blev givet opgaver, at det ikke nødvendigvis er beregnet til, ligesom oversættelse og summering. I deres rapport, at de forskere, der skrev, at de simpelthen var nødt til at bede uddannet model i den rigtige måde for at udføre disse opgaver på et niveau, der kan sammenlignes med andre modeller, der er specialiserede. Efter at have analyseret en kort historie om en Olympisk race, den software, der var i stand til korrekt at besvare grundlæggende spørgsmål som “Hvad var længden af den race?” og “Hvor har den race begynde?”
Disse gode resultater er ellevild forskerne ud. En bekymring, de har, er, at teknologi ville blive brugt til turbo-afgift falske nyheder operationer. The Guardian har offentliggjort en fake news artikel skrevet af software sammen med sin dækning af forskning. Artiklen er læselige og indeholder falske citater, der er på emnet og realistisk. Grammatik er bedre end en masse af, hvad du vil se fra falske nyheder indhold møller. Og ifølge The Guardian er Alex Hern, det tog kun 15 sekunder for bot til at skrive artiklen.
Andre bekymringer, at de forskere, der er opført som potentielt misbrug i prisen automatisere phishing-e-mails, der udgiver sig for at være andre online, og selv-udviklende chikane. Men de mener også, at der er masser af gavnlige programmer at blive opdaget. For eksempel, det kunne være et effektivt værktøj til at udvikle bedre talegenkendelse programmer eller dialog agenter.
OpenAI planer om at engagere AI fællesskab i en dialog om deres frigivelse strategi og håber at udforske de potentielle etiske retningslinjer til at styre denne type af forskning i fremtiden. De sagde, at de vil have mere at diskutere i offentligheden i seks måneder.
[OpenAI via Guardian]
Dele Denne Historie