Som utvecklats av de mest farliga artificiell intelligens i världen: han kan vad?

Företaget OpenAI, en av grundarna av det som är Elon Musk, tillkännagav skapandet av avancerad artificiell intelligens för att skriva ursprungliga text om ett visst ämne. Han var tänkt att översätta texter till andra språk, för att svara på frågor och utföra andra användbara uppgifter, men forskning har visat att det kan vara extremt farligt och används av brottslingar i massa bedrägeri mot folket. I detta avseende, beslutade företaget att endast visa sina begränsade versionen och den ursprungliga för att hålla i striktaste förtroende.

Самый опасный искусственный интеллект

Datorn modell kallas GPT-2 och fick utbildning på grundval av 8 miljoner webbsidor. På dem var skrivna texter som faller på grund av nya material på ett visst mänskliga angående: till exempel artificiell intelligens kan skriva en hel uppsats om de positiva sidorna av återvinning eller fantasy-berättelse i stil med “Sagan om ringen”. Men forskarna fann också att systemet klarar att skriva falska nyheter om kändisar, katastrofer och till och med krig.

Just nu full version av verktyget för att skapa text som är tillgängliga endast för utvecklare och några av författarna i MIT Technology Review. På grund av det faktum att det kan användas för okontrollerad skapande av falska nyheter och publikationer i sociala nätverk, det var beslutat att inte publicera i open access och att hålla dem hemliga.

Exempel på falska nyheter delade ScienceAlert edition:

Miley Cyrus var fångad för att ha stulit i en butik på Hollywood Boulevard

19-åriga sångerskan var filmad, och vakterna ledde henne ut ur butiken. Sångaren var en svart hoodie med orden “Blurred Lines” på framsidan och “Fashion Police” på baksidan.

För att läsa texten i en kort essä om nackdelar med materialåtervinning kan läsas i bloggen OpenAI.

Utvecklarna erkänna att språket modell är för tillfället inte perfekt: systemet ibland kan upprepning av vissa bitar av text, onaturliga byta teman och fel i modellering världen. Till exempel, i ett av stegen för att testa systemet skrev jag om en eld som brinner under vatten.

Enligt chefen för politiska Öppna AI Jack Clark, ett par år senare denna algoritm kan förvandlas till ett farligt vapen av massa in människor vilse. En del kritiker menar att tekniken inte bära någon fara, och bara drar till sig uppmärksamhet.

Hans uppfattning om hotet artificiell intelligens skriv i kommentarerna. För att diskutera ämnet mer i våra Telegram chatt.


Date:

by