Udviklet af de mest farlige kunstig intelligens i verden: han kan hvad?

Virksomheden OpenAI, en af grundlæggerne er Elon Musk, annoncerede oprettelsen af avancerede kunstige intelligens til at skrive originale tekster om et givet emne. Han skulle til at oversætte tekster til andre sprog, til at besvare spørgsmål, og udføre andre nyttige opgaver, men forskning har vist, at det kan være ekstremt farligt, og som anvendes af kriminelle masse bedrag af folket. I denne forbindelse, at selskabet har besluttet kun at vise hans begrænset version og den oprindelige til at holde strengt fortroligt.

Самый опасный искусственный интеллект

Computeren model kaldes GPT-2 og blev uddannet på grundlag af 8 millioner websider. På dem blev skrevet de tekster, der falder på grundlag af nye materialer på en given menneskelig emne: for eksempel, kunstig intelligens kan skrive en hel artikel om de positive sider af genanvendelse eller fantasy historie i stil med “ringenes Herre”. Men forskerne fandt også, at systemet klarer skriver falske nyheder om berømtheder, katastrofer og endda krige.

I det øjeblik, den fulde version af værktøjet til at generere tekst kun tilgængelig for udviklere, og nogle af forfatterne af MIT Technology Review. På grund af det faktum, at det kan bruges til ukontrolleret oprettelse af falske nyheder og publikationer, der er i sociale netværk, blev det besluttet ikke at udgive i open access og til at holde dem hemmelige.

Eksempel på falske nyheder delte ScienceAlert udgave:

Miley Cyrus blev anholdt for at stjæle i en butik på Hollywood Boulevard

19-årige sanger blev filmet, og vagterne førte hende ud af butikken. Sangeren var en sort hættetrøje med ordene “Blurred Lines” foran og “Fashion Police” på bagsiden.

For at læse teksten i et kort essay om ulemperne ved genanvendelse kan læse i bloggen OpenAI.

Udviklerne erkende, at de sproglige model, der i øjeblikket ikke er perfekt: det system, som til tider giver en gentagelse af nogle stykker af tekst, unaturlige skifte temaer og fiaskoer modellering verden. For eksempel, i en af de faser af afprøvning af det system, jeg skrev om en ild under vand.

Ifølge Direktør for politik Åbne AI Jack Clark, et par år senere denne algoritme kan blive et farligt våben masse indtaste folk på afveje. Nogle kritikere mener, at teknologien ikke er forsynet med nogen fare, og virksomheden kun tiltrækker opmærksomhed.

Hans mening om den trussel, kunstige intelligens til at skrive i kommentarerne. At diskutere emnet mere i vores Telegram chat.


Date:

by