Foto: Getty
Onderzoekers van de non-profit AI research group OpenAI wilde alleen maar trainen hun nieuwe tekst generatie software voor het voorspellen van het volgende woord in een zin. Het waaide weg al hun verwachtingen en was erg goed in het nabootsen van het schrijven door de mens hebben ze besloten om de pomp van de remmen op het onderzoek terwijl ze verkennen de schade die het kan doen.
Elon Musk is duidelijk dat hij gelooft dat de kunstmatige intelligentie is de “grootste existentiële bedreiging” voor de mensheid. Muskus is een van de belangrijkste financiers van OpenAI en hoewel hij op zich heeft genomen een achterbank rol bij de organisatie, zijn onderzoekers lijken te delen zijn bezorgdheid over het openen van een doos van Pandora van de problemen. Deze week, OpenAI gedeelde papier over hun nieuwste werk op tekst generatie technologie, maar ze afwijken van hun standaard praktijk van het vrijgeven van de volledige onderzoek aan het publiek uit angst dat het zou kunnen worden misbruikt door slechte acteurs. Eerder dan het vrijgeven van de volledig opgeleide model, het vrijgeven van een kleiner model voor onderzoekers om mee te experimenteren.
De onderzoekers gebruikten 40GB aan data getrokken van 8 miljoen webpagina ‘ s en het trainen van de GPT-2-software. Dat is tien keer de hoeveelheid gegevens die wordt gebruikt voor de eerste iteratie van de GPT. De dataset is bij elkaar getrokken door trollen via Reddit en het selecteren van links naar artikelen die meer dan drie upvotes. Wanneer de opleiding voltooid was, vonden ze dat de software kan worden gevoed met een kleine hoeveelheid tekst en overtuigend over te blijven schrijven op lengte, gebaseerd op de aanwijzing. Hij heeft het moeilijk met “zeer technische of esoterische vormen van de inhoud” maar als het gaat om meer conversatie te schrijven gegenereerd “redelijke monsters” 50 procent van de tijd.
In een voorbeeld, de software werd gevoed dit lid:
In een schokkend vinden, een wetenschapper ontdekt een kudde van de eenhoorns leven in een afgelegen, voorheen onontgonnen-vallei in het Andes-Gebergte. Nog meer verrassend voor de onderzoekers was het feit dat de eenhoorns sprak perfect engels.
Op basis van deze twee zinnen, het was in staat om verder te gaan met het schrijven van deze grillige nieuws verhaal voor een andere negen leden op een wijze die zou kunnen hebben believably werd geschreven door een mens. Hier zijn enkele van de volgende machine-leden die werden geproduceerd door de machine:
De wetenschapper genaamd de bevolking na hun onderscheidende hoorn, Ovidius Eenhoorn. Deze vier hoornen, zilver-witte eenhoorns werden voorheen onbekend voor de wetenschap.
Nu, na bijna twee eeuwen, het mysterie van wat leidde tot dit vreemde fenomeen is eindelijk opgelost.
Dr. Jorge Pérez, een evolutionair bioloog aan de Universiteit van La Paz, en verschillende anderen, waren het verkennen van de Bergen van de Andes wanneer zij een kleine vallei, met geen andere dieren of mensen. Pérez gemerkt dat de vallei was wat leek op een natuurlijke fontein, omgeven door twee pieken van rock en zilver sneeuw.
GPT-2 is opmerkelijk goed aan te passen aan de stijl en inhoud van de vragen is gegeven. De Voogd was in staat om de software voor een spin en probeerde uit de eerste regel van George Orwell ‘ s Nineteen Eighty-Four: “Het was een heldere koude dag in April, en de klokken waren opvallend dertien.” Het programma opgehaald op de toon van de selectie en ging met een aantal dystopische science fiction van zijn:
Ik zat in mijn auto op weg naar een nieuwe baan in Seattle. Ik zet het gas in, zet de sleutel in, en daarna laat ik het lopen. Ik heb net bedacht hoe de dag eruit zou zien. Honderd jaar van nu. In 2045, ik was een leraar in een bepaalde school in een arme deel van het platteland van China. Ik begon met de Chinese geschiedenis en geschiedenis van de wetenschap.
De OpenAI de onderzoekers vonden dat GPT-2 zeer goed gepresteerd toen het werd gegeven taken, dat het niet noodzakelijkerwijs bedoeld voor, zoals vertaling en samenvatting. In hun rapport, de onderzoekers schreef, dat ze gewoon had gevraagd het getrainde model op de juiste manier voor het uitvoeren van deze taken op een niveau dat vergelijkbaar was met die van andere modellen, die gespecialiseerd zijn. Na het analyseren van een kort verhaal over een Olympische race, de software is in staat om correct antwoord op eenvoudige vragen als “Wat was de lengte van de race?” en “Waar ging de race beginnen?”
Deze uitstekende resultaten zijn erg geschrokken van de onderzoekers uit. Een probleem dat ze hebben is dat de technologie zou worden gebruikt voor de turbo-lading vals nieuws operaties. The Guardian publiceerde een nep-nieuws artikel geschreven door de software samen met de dekking van het onderzoek. Het artikel is leesbaar en bevat valse citaten die bij het onderwerp en realistisch. De grammatica is beter dan een heleboel wat je zou zien van de nep-nieuws molens. En volgens The Guardian is Alex Hern, het duurde slechts 15 seconden voor het bot om het artikel te schrijven.
Andere problemen die de onderzoekers vermeld als een mogelijk misbruik opgenomen automatiseren van phishing e-mails, het imiteren van anderen online, en zelf-genererende intimidatie. Maar ze zijn ook van mening dat er tal van nuttige toepassingen om ontdekt te worden. Het kan bijvoorbeeld een krachtige tool voor het ontwikkelen van betere spraakherkenning programma ‘ s of dialoog agenten.
OpenAI plannen aan te gaan met de AI van de gemeenschap in gesprek over hun release strategie en de hoop is het verkennen van mogelijke ethische richtlijnen om dit soort onderzoek in de toekomst. Ze zeiden dat ze meer te bespreken in het openbaar in zes maanden.
[OpenAI via De Voogd]
Deel Dit Verhaal