Super AI kommer att dyka upp 2027. Sant eller inte?

När experter på maskininlärning diskuterar framtiden för artificiell intelligens säger en tidigare anställd på OpenAI, företaget som gav världen ChatGPT, att världen är i en kapplöpning om allmän AI (AGI). I sin omfattande rapport skriver forskaren Leopold Aschenbrenner att idag är det bara några hundra personer som har situationsmedvetenhet om tekniken och hur dess prestationer kommer att påverka framtiden, och vinsttörsten tvingar utvecklare att utveckla AGI i en sådan takt att de ignorerar allt. risker och begränsningar. «Vi skapar system som kan tänka och motivera sina handlingar. Till 2025/26 kommer de att ligga före många universitetsutexaminerade, och i slutet av decenniet kommer de att vara smartare än du och jag”, står det i rapporten. Kommer vi verkligen att bevittna uppkomsten av superintelligens? Låt oss ta reda på det!

Super-AI kommer att dyka upp 2027. Sant eller inte? Super-AI kan dyka upp så tidigt som 2027. Detta är slutsatsen av en före detta OpenAI-anställd. Bild: www.thesun.co.uk. Foto.

Super AI kan dyka upp så tidigt som 2027. En före detta OpenAI-anställd kom till dessa slutsatser. Bild: www.thesun.co.uk

Artificial General Intelligence (AGI)är ett område för teoretisk forskning inom artificiell intelligens som försöker skapa mjukvara med mänsklig intelligens och förmåga att lära sig själv.

Innehåll

  • 1 Jagar AGI
    • 1.1 Vad vill företag?
    • 1.2 Aschenbrenner-rapporten, huvudsaken
  • 2 Vad kommer att hända 2027?
  • 3 Övergång till övermänsklig AI
  • 4 Intellektuell explosion och dess konsekvenser

I jakten på AGI

Förutsägelser om filmens undergång i händerna på generativ AI bleknar i jämförelse med varningar om mänsklighetens öde om forskare får sin vilja igenom att skapa artificiell allmän intelligens (AGI), ett fortfarande hypotetiskt system som kan fungera på mänsklig eller övermänsklig nivå. Åsikterna mellan forskare varierar dock mycket – de första anser att AGI är ouppnåeligt, den andra förutspår dess utseende om decennier, och den tredje är helt övertygad om att AGI kommer att dyka upp före 2030.

Nyligen, en tidigare anställd på OpenAI-företaget Leopold Aschenbrenner, vars The brainchild of ChatGPT har publicerat en stor 165-sidig rapport som beskriver utvecklingen av generativa AI-system under de kommande 10 åren. Det kan tyckas att Aschenbrenner överdriver, men hans ord är tankeväckande: omfattningen av AI-finansiering är redan över våra vildaste förväntningar.

En före detta OpenAI-anställd hävdar att utvecklare ignorerar risker och försummar säkerheten när de skapar AGI. Bild: i.ytimg.com

Det är viktigt att notera att Aschenbrenner inte är medlem i någon sekt eller en alarmist som predikar världens undergång. Han, liksom Elon Musk, håller med dem som efterlyser mer «situationsanpassade» medvetenhet om potentialen hos AI och statlig intervention för att begränsa makten hos företag som äger AI.

Du kanske är intresserad av: Neurala nätverk kommer att förstöra mänskligheten. Sant eller inte?

Även om rapporten inte nämner specifikt namn, hänvisar den tydligen till OpenAI, där Aschenbrenner var ansvarig för skyddsåtgärder gällande AGI-utveckling. Forskaren fick sparken i april i år, uppenbarligen för att ha kritiserat ledningen, som enligt honom “försummar säkerheten för pengarnas skull.” OpenAI-representanter sa i sin tur att Aschenbrenner fick sparken för att ha läckt viktig information om företagets beredskap att implementera AGI.

Till sitt försvar sa den tidigare anställde att informationen han delade var « #187;, eftersom den är baserad på allmänt tillgänglig data. Han misstänker att företaget helt enkelt letade efter ett sätt att bli av med honom. Intressant nog slutade även cheferna för avdelningen där Aschenbrenner arbetade.

Enligt tidigare OpenAI-anställda skapar företaget super-AI i jakten på vinst. Bild: nextbigfuture.s3.amazonaws.com

En annan före detta OpenAI-anställd, Daniel Kokotailo, upprepar Aschenbrenners känslor och säger att OpenAI utvecklar allt kraftfullare artificiell intelligenssystem med målet att så småningom överträffa mänsklig intelligens i alla avseenden. Enligt hans åsikt kommer AGI att vara antingen den bästa eller den värsta händelsen i mänsklighetens historia, och förtroendet för ledningen av OpenAI förlorades gradvis, främst på grund av ansvarslöshet och ignorering av säkerhet.

Kopplingen om AGI har redan börjat. I slutet av decenniet kommer vi att ha superintelligens i ordets rätta bemärkelse. Om vi ​​har tur går vi in ​​i ett totallopp med andra länder, och om inte kan ett världskrig bryta ut, säger rapporten.

Vad vill företagen?

För att bättre förstå den nuvarande situationen, låt oss komma ihåg att generativ AI har en viktig plats i den tekniska miljön. Vi har sett att artificiell intelligens har gjort företag som Microsoft till de mest värdefulla i världenmed ett marknadsvärde på över 3 biljoner dollar. Marknadsanalytiker tillskriver denna snabba tillväxt det faktum att företaget snabbt bemästrade den tekniska innovationen.

Till och med NVIDIA är på väg att introducera AI i sina iPhones efter att nyligen gått om Apple för att bli världens näst mest värdefulla företag på grund av stor efterfrågan på GPU:er för AI-utveckling, säger experter.

Microsoft och OpenAI verkar vara bland de ledande teknikföretagen som investerar mycket i artificiell intelligens. Deras partnerskap har dock väckt kontrovers, med insiders som påpekar att Microsoft har blivit den «glorifierade IT-avdelningen för lovande startups».

Techjättarna Microsoft och OpenAI utsätts alltmer för eld. Bild: gizmodo.com

Vill du vara den första som får veta de senaste nyheterna från vetenskapens och högteknologins värld? Prenumerera på vår kanal på Telegram – så att du definitivt inte missar något intressant!

Miljardären och SapceX-grundaren Elon Musk säger till och med att OpenAI verkar ha «i huvudsak blivit ett dotterbolag med stängd källkod till Microsoft».

Det är ingen hemlighet att företagen har komplexa partnerskap, och den senaste kontroversen kring OpenAI hjälper inte saken. Som nämnts ovan lämnade flera högt uppsatta medarbetare OpenAI efter lanseringen av GPT-4. Och även om orsakerna till deras avgång i bästa fall fortfarande är oklara, sa Jan Leike, Aschenbrenners tidigare teamledare, att han var oroad över utvecklingen av artificiell intelligens på företaget.

Vad vill företag? Elon Musk har länge kritiserat OpenAI-ledningen. Bild: etstatic.tnn.in. Foto.

Elon Musk har länge kritiserat OpenAI-ledningen. Bild: etstatic.tnn.in

Allt detta gör att det är extremt svårt att förutsäga den bana längs vilken artificiell intelligens kommer att utvecklas under de närmaste åren. Samtidigt påpekar NVIDIAs vd Jensen Huang att “vi kan vara på gränsen till nästa våg av artificiell intelligens.” Han hävdar också att robotteknik är nästa stora industri, dominerad av självkörande bilar och humanoida robotar.

Missa inte: Neurala nätverk har lärt sig att ljuga och gör det med flit

Lyckligtvis ger Aschenbrenners rapport en viss inblick i vad framtiden har att erbjuda. Hans prognoser är dock ganska alarmerande, och några av dem är svåra att tro på.

Aschenbrenners rapport, huvudsaken

    Här är de viktigaste slutsatserna i rapporten om fem kapitel och 165 sidor:

  • Artificiell intelligens utvecklas med stormsteg och till 2027, istället för en chatbot, kommer vi att ha något mer som en kollega. Vid denna tidpunkt kommer neurala nätverk att kunna utföra arbetet som en AI-forskare/ingenjör.
  • AI-framsteg kommer inte att stanna på mänsklig nivå och vi kommer snabbt att gå från AGI till helt övermänskliga AI-system. Denna superintelligens kommer troligen att dyka upp 2030.
  • Inget team av proffs kan hantera övermänsklig AI. Just nu finns det bara några hundra människor i världen som förstår vad som väntar oss och hur galna saker sannolikt kommer att bli.
  • Nödvändiga steg att ta: Omedelbart och radikalt stärka säkerheten i AI-labb; konstruktion av AGI-datorkluster i USA; AI-laboratoriernas vilja att samarbeta med militären.

Vad kommer att hända 2027?

AGI senast 2027 ser slående troligt ut. För att göra detta behöver du inte tro på science fiction, du behöver bara tro på raka linjer på grafen över tillväxten av AI-kapacitet, skriver en före detta OpenAI-anställd.

Så, enligt Aschenbrenners rapport, går utvecklingen av AI framåt med stormsteg och om denna trend inte förändras, kommer artificiell intelligens år 2027 att bli slående lik människor. Hans ord är faktiskt vettiga, för på bara fyra år – från och med GPT-2 och slutar med GPT-4 – har AI gått från ett förskolebarn till en smart gymnasieelev. «Om vi ​​spårar trender inom datorområdet och effektiviteten av algoritmer kan vi med tillförsikt säga att 2027 kommer vi att stå inför ytterligare en kvalitativ övergång från «förskolebarn till gymnasieelev»» – skriver Aschenbrenner.

Dessutom, enligt en före detta OpenAI-anställd, kommer AI-framsteg inte att stanna på mänsklig nivå, eftersom hundratals miljoner AI:er inom en snar framtid kommer att kunna automatisera forskning inom detta område, vilket minskar ett decennium av algoritmiska framsteg till ett år. Detta innebär att övergången från mänsklig nivå till helt övermänskliga AI-system kommer att ske mycket snabbt, och kraften – och faran – med superintelligens kommer att vara kolossal.

Aschenbrenner säger att år 2027 kan utvecklingen av artificiell intelligens nå en högre nivå och överträffa kapaciteten hos forskare och ingenjörer inom artificiell intelligens. Bild: scalebytech.com

Eftersom AI-intäkterna växer snabbt kommer biljoner dollar att investeras i GPU:er, datacenter och kapacitetsutbyggnad före slutet av decenniet i en “extraordinär teknokratisk acceleration”, säger rapporten.

Det är svårt att kalla dessa ord långsökta, eftersom GPT-4 (som i bästa fall har beskrivits som lätt skrämmande) redan överträffar professionella analytiker och avancerade artificiell intelligensmodellerför att prognostisera framtida intäktstrender utan tillgång till kvalitetsdata. Det finns dock allvarliga farhågor kring energiförsörjningen, vilket leder till att OpenAI ser kärnfusion som ett troligt alternativ under överskådlig framtid.

Rapporten visar också att fler företag kommer att gå med i kampen för AGI och investera biljoner dollar i utvecklingen av dessa intelligenta system. Allt detta kommer bland rapporter om att Microsoft och OpenAI investerar mer än 100 miljarder dollar i ett projekt som heter Stargateför att bli av med överdrivet beroende av NVIDIA GPU:er.

Läs också: Hur påverkar neurala nätverk klimatet och miljön?

Övergången till övermänsklig AI

Aschenbrenner är övertygad om att när mänskligheten får tag på AGI kommer den inte att sluta och kommer att börja skapa ännu mer kraftfulla algoritmer som inte bara kan jämföra med människor, utan också avsevärt överträffa deras kapacitet. Denna övergång kommer sannolikt att ske efter 2029 eftersom AI kommer att kunna automatisera och påskynda sin forskning och utveckling. Och när fler länder och institutioner runt om i världen förbereder sig för att anamma AGI och tillkomsten av övermänsklig AI, kommer sektorn att få mer företags- och statlig finansiering.

Innan vi vet ordet av kommer vi att ha superintelligens i våra händer – artificiell intelligenssystem som är mycket smartare än människor, kapabla till nya, kreativa, komplexa beteenden som vi inte ens kommer att kunna förstå. Kanske till och med en liten civilisation med miljarder sådana system. Deras makt kommer också att vara enorm. Extremt komplexa vetenskapliga och tekniska problem som en person skulle ha fastnat med i årtionden kommer att verka uppenbara för dem. Vi kommer att vara som gymnasieelever som har fastnat för newtonsk fysik medan de studerar kvantmekanik, varnar rapportens författare.

Övergången till övermänsklig AI. År 2030 kan världen ha intelligens överlägsen mänsklig intelligens. Och detta är mycket farligt. Bild: i.ytimg.com. Foto.

Senast 2030 kan världen ha intelligens som är överlägsen mänsklig intelligens. Och detta är mycket farligt. Bild: i.ytimg.com

Slutligen kommer sådana superintelligenser att själva kunna träna ännu mer komplex artificiell intelligens. “De kan enkelt skriva miljontals rader med komplex kod, hålla hela kodbasen i sitt sammanhang och kommer inte behöva spendera decennier (eller mer) på att kontrollera och kontrollera varje rad kod för fel och optimeringar. De kommer att vara extremt kompetenta i alla aspekter av sitt arbete”, konstaterar en före detta OpenAI-anställd.

Det här är intressant: Hur hittar man kärlek med ChatGPT och artificiell intelligens?

Allt detta betyder att alla vetenskapliga och tekniska framsteg som mänskligheten har genomgått under 1900-talet kommer att överträffas på bara ett decennium. Detta kommer i sin tur att ge avgörande och överväldigande militär överlägsenhet till det land som leder AI-kapprustningen.

Användningen av superintelligens mot vapen som fanns innan dess tillkomst skulle påminna om sammandrabbningen mellan modern militär personal och kavallerister på 1800-talet. Tiden omedelbart efter tillkomsten av superintelligens kommer att bli en av de mest instabila, stressiga, farliga och otämjda perioderna i mänsklighetens historia, avslutar en före detta OpenAI-anställd.

Konsekvenserna av en intellektuell explosion kommer att bli kolossala. Bild: habrastorage.org

Författaren till rapporten tror med rätta att länder kommer att vidta strängare nationella säkerhetsåtgärder för att hantera och kontrollera utvecklingen inom artificiell intelligens. Den internationella konkurrensen, särskilt mellan USA och Kina, kan dock intensifieras och leda till ett «fullskaligt krig».

Vi pratade mer i detalj om vad som kommer att hända när artificiell intelligens når toppen av sin utveckling här, missa inte det!

Intellektuell explosion och dess konsekvenser

I slutet av rapporten blir Ascherbrenners oro mer uttalad när landets ledande laboratorier för artificiell intelligens behandlar säkerhet som en eftertanke. För närvarande överlämnar de i huvudsak AGI:s nyckelhemligheter på ett silverfat, men att på ett tillförlitligt sätt kontrollera artificiell intelligenssystem som är mycket smartare än oss är ett olöst tekniskt problem.

< p> Att tillförlitligt kontrollera artificiell intelligens som är mycket smartare än oss är ett olöst tekniskt problem. Och även om detta är ett lösbart problem, kan det mycket lätt gå snett under en snabb intellektuell explosion.

Faktum är att situationen som den ex-OpenAI-anställde beskriver i sin rapport kan jämföras med skapandet av en atombomb, eftersom kapplöpningen att skapa AGI kommer att sätta den moderna civilisationens överlevnad på spel. I slutändan vet ingen om vi kommer att kunna undvika katastrofer och självförstörelse på vägen.

En underrättelseexplosion kommer att vara mer som att utkämpa ett krig än att lansera en produkt. Precis som i filmen «Terminator». Bild: habrastorage.org

Lyckligtvis (och Aschenbrenner medger detta) borde modern utveckling inom AI-området hjälpa forskare att förstå exakt vilka processer som förekommer i algoritmer och försöka göra dem «tillräckligt tolkbara&# 187 för att garantera säkerheten.

Mer om ämnet: Kommer artificiell intelligens att förstöra oss och varför vissa forskare tror det?

Samtidigt har många experter och forskare inom området maskininlärning forskare delar inte den tidigare OpenAI-anställdes oro, eftersom de tror att antagandet av AGI inte kommer att ske lika snabbt och kommer att gå i en annan riktning. Samtidigt är det få experter som tvivlar på att artificiell intelligens så småningom kommer att bli smartare än människor, ta deras jobb och göra jobbet till en hobby. Av dessa skäl (och många fler) finns det en växande oro i akademiska kretsar över de konsekvenser som AI kan ha på mänskligheten.


Date:

by