Entwickelt die gefährliche künstliche Intelligenz in der Welt: was kann er?

Das Unternehmen OpenAI, einer der Gründer der ist danach hat ilon Musk, kündigte die Schaffung einer fortgeschrittenen künstlichen Intelligenz für das schreiben von Original-Texten zu einem bestimmten Thema. Er sollte in der übersetzen Texte in andere Sprachen, Fragen zu beantworten und führen andere nützliche Aufgaben, doch die Forschung hat gezeigt, dass er kann extrem gefährlich werden und von Angreifern genutzt werden, für die Masse der Männer Betrug. In diesem Zusammenhang wurde entschieden, zeigen der öffentlichkeit nur seine eingeschränkte Version und das Original speichern unter strengsten Geheimnis.

Самый опасный искусственный интеллект

Computer-Modell erhielt den Namen GPT-2 und wurde ausgebildet auf der Grundlage von 8 Millionen Web-Seiten. Auf Ihnen geschrieben Texte legen sich auf Basis von neuen Materialien auf einer bestimmten Person Thema: Z. B. künstliche Intelligenz kann uns nur ein ganzes Essay über die positiven Aspekte des Recyclings oder der Fantasy-Geschichte im Stil von «Herr der Ringe». Doch die Forscher fanden auch, dass das System meistert mit dem schreiben von falschen Nachrichten über Prominente, Katastrophen und sogar Kriege.

Im Moment ist die volle Version des Werkzeugs zur Generierung von Text ist nur für Entwickler und einigen Autoren MIT Technology Review. Aufgrund der Tatsache, dass es kann verwendet werden, um eine unkontrollierte Gründung von falschen Nachrichten und Veröffentlichungen in sozialen Netzwerken, es wurde beschlossen, nicht zu veröffentlichen, öffentlich und geheim zu halten.

Ein Beispiel für die falschen Nachrichten Aktien die Ausgabe ScienceAlert:

Miley Cyrus gefangen wurde wegen Diebstahl in einem Geschäft auf dem Hollywood Boulevard

19-jährige Sängerin wurde berechnet auf der Kamera, und die Wachen führten Sie aus dem laden. Der Sänger war ein schwarzer Kapuzenpullover mit der Aufschrift «Blurred Lines» vorn und «Fashion Police» auf dem Rücken.

Lesen Sie den Text kleinen Essays über die Nachteile des Recyclings können Sie Lesen im Blog OpenAI.

Die Entwickler bestätigen, dass das sprachliche Modell im Moment nicht ideal: das System erlaubt es manchmal, dass die Wiederholung einiger Teile des Textes, unnatürliche Wechsel von Themen und abstürzt Simulation der Welt. Zum Beispiel, an einer Stelle Test-System schrieb über das Feuer brennt unter Wasser.

Laut dem Direktor für Entwicklungspolitik Open AI Jack Clarke, ein paar Jahre später ein solcher Algorithmus ist in der Lage, sich in eine gefährliche Waffe der Eingabe die Menschen in die Irre. Einige Kritiker glauben, dass die Technologie keine Gefahr trägt, und das Unternehmen einfach die Aufmerksamkeit auf sich zieht.

Ihre Meinung über die gefährliche künstliche Intelligenz in den Kommentaren schreiben. Diskutieren Sie das Thema mehr in unserem Telegram-Chat.


Date:

by