Elon Musk-backed-AI-Gesellschaft Behauptet, dass Es einen Text-Generator, der ist zu Gefährlich, um Release

Foto: Getty

Forscher der non-profit-AI research group OpenAI nur trainieren wollten Ihre neuen text generation-software, um vorherzusagen, das nächste Wort in einem Satz. Es blies alle Ihre Erwartungen, und es war so gut imitiert das schreiben von Menschen, die Sie sich entschieden haben, die Bremsen zu Pumpen, die auf die Forschung, während Sie erkunden den Schaden könnte es tun.

Elon Musk wurde klar, dass er glaubt, dass künstliche Intelligenz ist die “größte existenzielle Bedrohung” für die Menschheit. Moschus ist einer der wichtigsten Förderer von OpenAI, und obwohl er hat einen Rücksitz Rolle in der Organisation, deren Wissenschaftler zu teilen scheinen seine Bedenken über das öffnen einer Büchse der Pandora Schwierigkeiten. Diese Woche, OpenAI gemeinsam ein Papier mit Ihrer neuesten Arbeit am text generation-Technologie, aber Sie sind abweichend von Ihrer üblichen Praxis der Freigabe der vollen Forschung an die öffentlichkeit, aus Angst, es könnte missbraucht werden von schlechten Schauspielern. Anstatt die Freigabe der voll ausgebildeten-Modell, es ist loslassen ein kleineres Modell für die Forscher zu Experimentieren.

Die Forscher verwendeten 40GB an Daten gezogen von 8 Millionen web-Seiten zum trainieren der GPT-2-software. Das ist zehn mal die Menge der Daten, die Sie verwendet für die erste iteration der GPT. Das dataset gezogen wurde gemeinsam von trolling durch Reddit und Auswahl von links zu Artikeln, die mehr als drei upvotes. Wenn die Ausbildung abgeschlossen war, fanden Sie, dass die software eingespeist werden, eine kleine Menge von text und überzeugend weiter zu schreiben bei der Länge auf der Grundlage der Eingabeaufforderung. Es hat Probleme mit der “hoch-technische oder esoterische content-Typen”, aber wenn es um mehr Konversation zu schreiben, die er erzeugt “angemessener Stichproben” 50 Prozent der Zeit.

In einem Beispiel wurde die software eingespeist diesem Absatz:

In einem schockierenden Feststellung, die Wissenschaftler entdeckt eine Herde von Einhörnern lebt in einem abgelegenen, bisher unerforschte Tal, in den Bergen der Anden. Noch mehr für die Forscher überraschend war die Tatsache, dass die Einhörner Sprach perfekt Englisch.

Basierend auf diesen zwei Sätzen war es in der Lage weiter zu schreiben diese skurrile story, für die anderen neun Ziffern in einer Weise, die hätten glaubhaft geschrieben worden, die von einem menschlichen Wesen. Hier sind die nächsten Maschine-Absätze, die produziert wurden, die von der Maschine:

Die Wissenschaftler benannten die Bevölkerung, nach Ihren unverwechselbaren horn, Ovids Einhorn. Diese vier-gehörnte -, Silber-weißen Einhörner waren, die zuvor der Wissenschaft unbekannt.

Jetzt, nach fast zwei Jahrhunderten, das Geheimnis, was löste dieses seltsame Phänomen ist endlich gelöst.

Dr. Jorge Pérez, ein evolutionärer Biologe an der Universität von La Paz, und mehrere Gefährten, erforschten die Anden, wenn Sie gefunden, einem kleinen Tal ohne andere Tiere oder Menschen. Pérez bemerkt, dass das Tal hatte, was zu sein schien eine Natürliche Brunnen, umgeben von zwei Spitzen des rock und Silber-Schnee.

GPT-2 ist eine bemerkenswert gute Anpassung an den Stil und den Inhalt der Aufforderungen, es ist gegeben. Der Guardian war in der Lage, die software für einen spin und versucht, aus der ersten Zeile von George Orwells Nineteen Eighty-Four: “Es war ein heller kalter Tag im April, und die Uhren waren Auffällig dreizehn.” Das Programm hob auf der Ton von der Auswahl und ging mit einigen dystopischen science-fiction:

Ich war in meinem Auto, auf meinem Weg zu einem neuen job in Seattle. Ich legte die gas-in, stecken Sie den Schlüssel, und dann habe ich es laufen lassen. Ich habe gerade gedacht, was der Tag sein würde. Hundert Jahre ab jetzt. Im Jahr 2045, ich war ein Lehrer in irgendeiner Schule in einem Armen Teil des ländlichen China. Ich begann mit der chinesischen Geschichte und der Geschichte der Wissenschaft.

Die OpenAI Forscher fanden heraus, dass GPT-2 durchgeführt sehr gut, wenn es gegeben wurde, die Aufgaben, dass es nicht zwingend für ausgelegt, wie übersetzung und Zusammenfassung. In Ihrem Bericht schreiben die Forscher, dass Sie einfach musste prompt das trainierte Modell in der richtigen Weise für Sie, um diese Aufgaben auf einem Niveau, das vergleichbar war zu anderen Modellen, die darauf spezialisiert sind. Nach der Analyse einer kurzen Geschichte über eine Olympia-Rennen wurde die software in der Lage richtig zu beantworten grundlegende Fragen wie “Was war die Länge des Rennens?” und “Wo haben Sie das Rennen beginnen?”

Diese ausgezeichneten Ergebnisse ausgeflippt haben die Forscher aus. Eine Sorge, die Sie haben, ist, dass die Technik würde verwendet werden, um turbo-charge gefälschte Nachrichten Operationen. Der Guardian veröffentlichte eine fake-news-Artikel geschrieben, indem Sie die software zusammen mit der Berichterstattung der Forschung aus. Der Artikel ist gut lesbar und enthält gefälschte Zitate, die zum Thema und realistisch. Die Grammatik ist besser als eine Menge, was Sie sehen würden, von der fake-news-Inhalte-Mühlen. Und nach Dem Guardian Alex Hern, es dauerte nur 15 Sekunden, damit der bot den Artikel zu schreiben.

Andere Bedenken, die die Forscher aufgelistet, die als potenziell beleidigend enthalten Automatisierung von phishing-E-Mails, die Identität anderer online-und selbst-Erzeugung Belästigung. Aber Sie glauben auch, dass es gibt viele Anwendungen vorteilhaft, entdeckt zu werden. Zum Beispiel könnte es sein, ein leistungsfähiges tool für die Entwicklung einer besseren Spracherkennung Programme oder Dialog-Agenten.

OpenAI Pläne zu engagieren, der AI-Gemeinschaft in einen Dialog über Ihre release-Strategie und Hoffnungen zu erkunden, mögliche ethische Richtlinien zu direkten diese Art von Forschung in der Zukunft. Sie sagten, Sie haben mehr zu diskutieren in der öffentlichkeit in sechs Monaten.

[OpenAI via The Guardian]

Teilen Sie Diese Geschichte


Date:

by