Super AI vil dukke op i 2027. Sandt eller ej?

Mens maskinlæringseksperter diskuterer fremtiden for kunstig intelligens, siger en tidligere ansat i OpenAI, virksomheden, der gav verden ChatGPT, at verden er i et kapløb om generel AI (AGI). I sin omfangsrige rapport skriver forsker Leopold Aschenbrenner, at i dag er det kun et par hundrede mennesker, der har situationsbevidsthed om teknologien, og hvordan dens resultater vil påvirke fremtiden, og tørsten efter profit tvinger udviklere til at udvikle AGI i et sådant tempo, at de ignorerer alt. risici og begrænsninger. «Vi skaber systemer, der kan tænke og retfærdiggøre deres handlinger. I 2025/26 vil de være foran mange universitetsuddannede, og ved udgangen af ​​årtiet vil de være klogere end dig og mig,” står der i rapporten. Skal vi virkelig være vidne til fremkomsten af ​​superintelligens? Lad os finde ud af det!

Super-AI vil dukke op i 2027. Sandt eller ej? Super-AI kan dukke op allerede i 2027. Dette er konklusionen af ​​en tidligere OpenAI-medarbejder. Billede: www.thesun.co.uk. Foto.

Super AI kunne dukke op så tidligt som i 2027. En tidligere OpenAI-medarbejder kom til disse konklusioner. Billede: www.thesun.co.uk

Artificial General Intelligence (AGI)er et felt for teoretisk forskning inden for kunstig intelligens, der søger at skabe software med menneskelignende intelligens og evnen til selv at lære.

Indhold

  • 1 Jagter AGI
    • 1.1 Hvad ønsker virksomheder?
    • 1.2 Aschenbrenner-rapporten, det vigtigste
  • 2 Hvad vil der ske i 2027?
  • 3 Overgang til overmenneskelig AI
  • 4 Intellektuel eksplosion og dens konsekvenser

I jagten på AGI

Forudsigelser om biografens død i hænderne på generativ AI blegner i forhold til advarsler om menneskehedens skæbne, hvis videnskabsmænd får deres vilje til at skabe kunstig generel intelligens (AGI), et stadig hypotetisk system, der er i stand til at fungere på menneskeligt eller overmenneskeligt niveau. Meningerne blandt videnskabsmænd varierer dog meget – den første anser AGI for uopnåelig, den anden forudsiger dens udseende i årtier, og den tredje er helt overbevist om, at AGI vil dukke op før 2030.

For nylig har en tidligere ansat i OpenAI-virksomheden Leopold Aschenbrenner, hvis hjernekind af ChatGPT har udgivet en stor 165-siders rapport, der beskriver udviklingen af ​​generative AI-systemer i de næste 10 år. Det kan virke som om Aschenbrenner overdriver, men hans ord er tankevækkende: omfanget af AI-finansiering er allerede over vores vildeste forventninger.

En tidligere OpenAI-medarbejder hævder, at udviklere ignorerer risici og forsømmer sikkerheden, når de opretter AGI. Billede: i.ytimg.com

Det er vigtigt at bemærke, at Aschenbrenner ikke er medlem af en sekt eller en alarmist, der prædiker verdens ende. Han er ligesom Elon Musk enig med dem, der efterlyser mere «situationsbestemt» bevidsthed om potentialet ved AI og regeringsindgreb for at begrænse magten hos virksomheder, der ejer AI.

Du kan være interesseret i: Neurale netværk vil ødelægge menneskeheden. Sandt eller ej?

Selvom rapporten ikke specifikt nævner navne, henviser den tilsyneladende til OpenAI, hvor Aschenbrenner var ansvarlig for sikkerhedsforanstaltninger vedrørende AGI-udvikling. Videnskabsmanden blev fyret i april i år, tilsyneladende for at kritisere ledelsen, som ifølge ham “forsømmer sikkerheden for pengenes skyld.” OpenAI-repræsentanter sagde til gengæld, at Aschenbrenner blev fyret for at lække vigtige oplysninger om virksomhedens parathed til at implementere AGI.

Til sit forsvar sagde den tidligere medarbejder, at de oplysninger, han delte, var « #187;, da det er baseret på offentligt tilgængelige data. Han formoder, at virksomheden blot ledte efter en måde at slippe af med ham. Interessant nok sagde lederne af den afdeling, som Aschenbrenner arbejdede i, også op.

Ifølge tidligere OpenAI-ansatte skaber virksomheden super-AI i jagten på profit. Billede: nextbigfuture.s3.amazonaws.com

En anden tidligere OpenAI-medarbejder, Daniel Kokotailo, gentager Aschenbrenners følelser og siger, at OpenAI udvikler stadig stærkere kunstige intelligenssystemer med det mål i sidste ende at overgå menneskelig intelligens i alle henseender. Efter hans mening vil AGI enten være den bedste eller den værste begivenhed i menneskehedens historie, og tilliden til ledelsen af ​​OpenAI gik gradvist tabt, primært på grund af uansvarlighed og tilsidesættelse af sikkerhed.

Kløbet om AGI er allerede begyndt. Ved udgangen af ​​årtiet vil vi have superintelligens i ordets sande betydning. Hvis vi er heldige, går vi ind i et totalkapløb med andre lande, og hvis ikke, kan en verdenskrig bryde ud, lyder det i rapporten.

Hvad vil virksomhederne?

For bedre at forstå den nuværende situation, lad os huske på, at generativ kunstig intelligens indtager en vigtig plads i det teknologiske miljø. Vi har set, at kunstig intelligens har gjort virksomheder som Microsoft til de mest værdifulde i verdenmed en markedsværdi på over $3 billioner. Markedsanalytikere tilskriver denne hurtige vækst, at virksomheden hurtigt mestrede den teknologiske innovation.

Selv NVIDIA er på nippet til at introducere AI i sine iPhones efter for nylig at have overhalet Apple til at blive verdens næstmest værdifulde virksomhed på grund af stor efterspørgsel efter GPU'er til AI-udvikling, siger eksperter.

Microsoft og OpenAI ser ud til at være blandt de førende teknologivirksomheder, der investerer massivt i kunstig intelligens. Deres partnerskab har dog udløst kontrovers, og insidere har påpeget, at Microsoft er blevet den «glorificerede it-afdeling for lovende startups».

Hvad vil virksomheder have? Tekniske giganter Microsoft og OpenAI er i stigende grad under beskydning. Billede: gizmodo.com. Foto.

Tech-giganterne Microsoft og OpenAI kommer i stigende grad under beskydning. Billede: gizmodo.com

Vil du være den første til at vide de seneste nyheder fra videnskabens og højteknologiens verden? Abonner på vores kanal på Telegram – så du helt sikkert ikke går glip af noget interessant!

Milliardæren og SapceX-grundlæggeren Elon Musk siger endda, at OpenAI ser ud til at være «i det væsentlige blevet et lukket kilde-datterselskab af Microsoft».

Det er ingen hemmelighed, at virksomhederne har komplekse partnerskaber, og den seneste kontrovers omkring OpenAI hjælper ikke sagen. Som nævnt ovenfor forlod flere højtstående medarbejdere OpenAI efter lanceringen af ​​GPT-4. Og selvom årsagerne til deres afgang i bedste fald stadig er uklare, sagde Jan Leike, Aschenbrenners tidligere teamleder, at han var bekymret over udviklingen af ​​kunstig intelligens i virksomheden.

Hvad vil virksomheder? Elon Musk har længe kritiseret OpenAI-ledelsen. Billede: etstatic.tnn.in. Foto.

Elon Musk har længe kritiseret OpenAI-ledelsen. Billede: etstatic.tnn.in

Alt dette betyder, at det er ekstremt svært at forudsige den bane, som kunstig intelligens vil udvikle sig i de næste par år. Samtidig påpeger NVIDIA CEO Jensen Huang, at “vi kan være på randen af ​​den næste bølge af kunstig intelligens.” Han argumenterer også for, at robotteknologi er den næste store industri, domineret af selvkørende biler og humanoide robotter.

Gå ikke glip af: Neurale netværk har lært at lyve og gør det med vilje

Heldigvis giver Aschenbrenners rapport et indblik i, hvad fremtiden bringer. Hans prognoser er dog ret alarmerende, og nogle af dem er svære at tro på.

Aschenbrenners rapport, det vigtigste

    Her er hovedkonklusionerne i rapporten på fem kapitler og 165 sider:

  • Kunstig intelligens udvikler sig med stormskridt, og i 2027 vil vi i stedet for en chatbot have noget, der ligner en kollega. På dette tidspunkt vil neurale netværk være i stand til at udføre arbejdet som en AI-forsker/ingeniør.
  • AI-fremskridt vil ikke stoppe på det menneskelige niveau, og vi vil hurtigt bevæge os fra AGI til fuldstændig overmenneskelige AI-systemer. Denne superintelligens vil sandsynligvis dukke op i 2030.
  • Intet team af professionelle kan klare overmenneskelig AI. Lige nu er der kun et par hundrede mennesker i verden, der forstår, hvad der er i vente for os, og hvor skøre ting sandsynligvis vil blive.
  • Nødvendige skridt at tage: Øjeblikkelig og radikalt styrkelse af sikkerheden i AI-laboratorier; konstruktion af AGI-computerklynger i USA; AI-laboratoriers vilje til at samarbejde med militæret.

Hvad vil der ske i 2027?

AGI i 2027 ser slående plausibel ud. For at gøre dette behøver du ikke at tro på science fiction, du skal bare tro på lige linjer på grafen over væksten af ​​AI-kapaciteter, skriver en tidligere OpenAI-medarbejder.

Så ifølge Aschenbrenners rapport skrider udviklingen af ​​AI frem med stormskridt, og hvis denne tendens ikke ændrer sig, vil kunstig intelligens i 2027 blive slående lig mennesker. Hans ord giver faktisk mening, for på kun fire år – begyndende med GPT-2 og slutter med GPT-4 – er AI gået fra en førskolebørn til en smart gymnasieelev. «Hvis vi sporer tendenser inden for databehandling og effektiviteten af ​​algoritmer, kan vi trygt sige, at vi i 2027 står over for endnu en kvalitativ overgang fra «førskolebarn til gymnasieelev»» – skriver Aschenbrenner.

Desuden vil AI-fremskridt ifølge en tidligere OpenAI-medarbejder ikke stoppe på det menneskelige niveau, da hundreder af millioner af AI'er i den nærmeste fremtid vil være i stand til at automatisere forskning på dette felt, hvilket reducerer et årti med algoritmiske fremskridt til et år. Det betyder, at overgangen fra menneskelig niveau til fuldstændig overmenneskelige AI-systemer vil ske meget hurtigt, og magten – og faren – ved superintelligens vil være kolossal.

Aschenbrenner siger, at i 2027 kan udvikling af kunstig intelligens nå et højere niveau og overgå evnerne hos forskere og ingeniører inden for kunstig intelligens. Billede: scalebytech.com

Da AI-indtægterne vokser hurtigt, vil billioner af dollars blive investeret i GPU'er, datacentre og kapacitetsudvidelse inden udgangen af ​​årtiet i en “ekstraordinær teknokratisk acceleration,” siger rapporten.

Det er svært at kalde disse ord for langt ude, da GPT-4 (som i bedste fald er blevet beskrevet som mildt skræmmende) allerede er bedre end professionelle analytikere og avancerede kunstig intelligens-modelleri at forudsige fremtidige omsætningstendenser uden adgang til kvalitetsdata. Der er dog alvorlige bekymringer omkring energiforsyningen, hvilket får OpenAI til at betragte atomfusion som et sandsynligt alternativ i en overskuelig fremtid.

Rapporten indikerer også, at flere virksomheder vil slutte sig til kampen for AGI og investere billioner af dollars. i udviklingen af ​​disse intelligente systemer. Alt dette kommer midt i rapporter om, at Microsoft og OpenAI investerer mere end $100 milliarder i et projekt kaldet Stargatefor at slippe af med overdreven afhængighed af NVIDIA GPU'er.

Læs også: Hvordan påvirker neurale netværk klimaet og miljøet?

Overgangen til overmenneskelig AI

Aschenbrenner er overbevist om, at når menneskeheden får fingrene i AGI, vil den ikke stoppe og vil begynde at skabe endnu mere kraftfulde algoritmer, der ikke kun kan sammenlignes med mennesker, men også i høj grad overskrider deres evner. Denne overgang vil sandsynligvis finde sted efter 2029, da AI vil være i stand til at automatisere og fremskynde sin forskning og udvikling. Og efterhånden som flere lande og institutioner rundt om i verden forbereder sig på at omfavne AGI og fremkomsten af ​​overmenneskelig AI, vil sektoren modtage flere virksomheders og offentlige midler.

Før vi ved af det, har vi superintelligens i vores hænder – kunstige intelligenssystemer, der er langt smartere end mennesker, i stand til ny, kreativ, kompleks adfærd, som vi ikke engang vil være i stand til at forstå. Måske endda en lille civilisation med milliarder af sådanne systemer. Deres magt vil også være enorm. Ekstremt komplekse videnskabelige og teknologiske problemer, som en person ville sidde fast med i årtier, vil virke indlysende for dem. Vi vil være som gymnasieelever, der sidder fast i newtonsk fysik, mens de studerer kvantemekanik, advarer rapportens forfatter.

Overgangen til overmenneskelig AI. I 2030 kan verden have intelligens overlegen menneskelig intelligens. Og dette er meget farligt. Billede: i.ytimg.com. Foto.

I 2030 kan verden have intelligens overlegen menneskelig intelligens. Og dette er meget farligt. Billede: i.ytimg.com

Endelig vil sådanne superintelligenser selv kunne træne endnu mere kompleks kunstig intelligens. “De kan nemt skrive millioner af linjer kompleks kode, holde hele kodebasen i kontekst og behøver ikke at bruge årtier (eller mere) på at kontrollere og gentjekke hver linje kode for fejl og optimeringer. De vil være ekstremt kompetente i alle aspekter af deres arbejde,” fastslår en tidligere OpenAI-medarbejder.

Dette er interessant: Hvordan finder man kærligheden ved hjælp af ChatGPT og kunstig intelligens?

Alt dette betyder, at alle de videnskabelige og teknologiske fremskridt, som menneskeheden har gennemgået i det tyvende århundrede, vil blive overgået på blot et årti. Dette vil igen give afgørende og overvældende militær overlegenhed til det land, der leder AI-våbenkapløbet.

Brugen af ​​superintelligens mod våben, der eksisterede før dens fremkomst, ville minde om sammenstødet mellem moderne militærpersonel og kavalerister i det 19. århundrede. Tiden umiddelbart efter fremkomsten af ​​superintelligens vil være en af ​​de mest ustabile, stressende, farlige og utæmmede perioder i menneskehedens historie, konkluderer en tidligere OpenAI-medarbejder.

Konsekvenserne af en intellektuel eksplosion vil være kolossale. Billede: habrastorage.org

Forfatteren af ​​rapporten mener med rette, at lande vil tage strengere nationale sikkerhedsforanstaltninger for at styre og kontrollere udviklingen inden for kunstig intelligens. Den internationale konkurrence, især mellem USA og Kina, kan dog intensiveres og føre til en «fuldskala krig».

Vi talte mere detaljeret om, hvad der vil ske, når kunstig intelligens når toppen af ​​sin udvikling her, gå ikke glip af det!

Intellektuel eksplosion og dens konsekvenser

Ved udgangen af ​​rapporten bliver Ascherbrenners bekymring mere udtalt, da landets førende kunstig intelligens-laboratorier behandler sikkerhed som en eftertanke. I øjeblikket afleverer de i det væsentlige AGI's nøglehemmeligheder på et sølvfad, men pålidelig styring af kunstige intelligenssystemer, der er meget smartere end os, er et uløst teknisk problem.

< p> Pålidelig styring af kunstige intelligenssystemer, der er meget smartere end os, er et uløst teknisk problem. Og selvom dette er et løseligt problem, kan det meget nemt gå galt under en hurtig intellektuel eksplosion.

Faktisk kan den situation, som den tidligere OpenAI-medarbejder beskriver i sin rapport, sammenlignes med skabelsen af ​​en atombombe, eftersom kapløbet om at skabe AGI vil sætte den moderne civilisations overlevelse på spil. I sidste ende er der ingen, der ved, om vi vil være i stand til at undgå katastrofer og selvdestruktion undervejs.

En efterretningseksplosion vil mere ligne at kæmpe en krig end at lancere et produkt. Ligesom i filmen «Terminator». Billede: habrastorage.org

Heldigvis (og Aschenbrenner indrømmer dette) burde moderne udvikling inden for kunstig intelligens hjælpe videnskabsmænd med at forstå præcis, hvilke processer der forekommer i algoritmer og forsøge at gøre dem «tilstrækkeligt fortolkelige&# 187 for at sikre sikkerheden.

Mere om emnet: Vil kunstig intelligens ødelægge os, og hvorfor nogle videnskabsmænd tror det?

Samtidig er der mange eksperter og forskere inden for maskinlæring forskere deler ikke bekymringerne hos den tidligere OpenAI-medarbejder, idet de tror, ​​at vedtagelsen af ​​AGI ikke vil ske så hurtigt og vil bevæge sig i en anden retning. Samtidig er de færreste eksperter i tvivl om, at kunstig intelligens med tiden vil blive klogere end mennesker, tage deres job og gøre arbejdet til en hobby. Af disse grunde (og mange flere) er der voksende bekymring i akademiske kredse om de implikationer, AI kan have på menneskeheden.


Date:

by