Slutet av Nvidia? Graphcore har utvecklat chip baserat på beräkningar diagram

Artificiell intelligens är den mest kritiska (i alla bemärkelser) tekniken i vår tid. Marker av artificiell intelligens — den mest kritiska infrastruktur för artificiell intelligens. Baserat på dessa två antaganden, den inverkan som Graphcore planer på att massproducera i världen, trotsar beskrivning. Hur att expandera gränserna för Moores lag med tillkomsten av IPU? Vilken maskinvara och programvara som vi väntar på? En sak är säker: Nvidia bör vara rädd för och att oroa sig.

Om lyckan kan kallas förmågan att vara på rätt plats vid rätt tidpunkt, kan vi säga att vi är de lyckliga. Graphcore är ett populärt namn i världen av marker AI, har för länge sedan dök upp på radarn för stora tekniska publikationer. Utgivare ZDnet kunde prata med grundarna Graphcore innan de presenteras de senaste nyheterna.

Graphcore om du inte vet, har precis fått en annan $ 200 miljoner euro i finansiering från BMW, Microsoft och ledande finansiella investerare i skalning av de mest avancerade chip i världen av AI. Graphcore är nu officiellt “enhörningen” med en värdering av sek 1,7 miljarder. Bland företagets partners — Dell, Bosch och Samsung. Det är inte svårt att gissa vad som är bryggning något mycket stort. Men låt oss för.

Läs mer om hur hjärnan fungerar är en sak. För att simulera en annan marker

Graphcore är baserat i Bristol, STORBRITANNIEN, och grundades av veteraner från halvledarindustrin Nigel Toon, VD, och Simon nolson, CTO. Tidigare Thun och Knowles har arbetat med företag som Altera, Element14, och Icera, som nådde ett totalt värde i miljarder dollar. Tong är övertygade om att de kan — och kommer att — vända halvledarindustrin är starkare än någonsin tidigare, att bryta ner de praktiska monopol som tillhör Nvidia.

Nvidia är en viktig aktör när det gäller AI, på grund av dess GPU marker, och det håller på att utveckla. I detta område finns det andra spelare, men Tong anser att endast från Nvidia är en tydlig, konsekvent strategi och effektiva produkten på marknaden. Det är fortfarande Google som investerar i marker AI, men Toon hävdar att Graphcore är en ledande fördel och en fantastisk möjlighet att bygga upp ett Imperium med chips IPU (Intelligent Processor Unit). Som ett exempel nämner han den mobil-ARM-processorer.

För att förstå källan till hans förtroende, förtroende för sina partners och investerare, vi behöver förstå vad som gör Graphcore och vad som skiljer den från sina konkurrenter. Maskininlärning och artificiell intelligens — den snabbast växande och viktig teknik. Machine learning, som är grunden för artificiell intelligens i våra dagar, är mycket effektiv i att finna mönster och regelbundenheter, och är baserad på en kombination av lämpliga algoritmer (modeller) och uppgifter (utbildning set).

Vissa människor kallar artificiell intelligens av matrismultiplikation. Även om sådana extrema uttalanden är diskutabel, kvarstår faktum: de flesta av maskinen lärande är relaterat till en effektiv data insatser för att skala. Det är därför GPU är så bra med massor av maskininlärning. Deras arkitektur var ursprungligen designad för graphics processing, men det visade sig vara mycket effektivt, och data verksamheten.

Vad gjorde Graphcore? Har investerat i en helt ny arkitektur. Det är därför Tong anser att hon har en fördel jämfört med andra alternativ. Thun konstaterar att effektiv konkurrens byggd specialiserade marker (ASIC) att göra bra med vissa matematiska operationer med uppgifter som optimerats för vissa uppgifter. Men för morgondagens arbetsbelastning, detta är inte lämplig.

Vad är så speciellt med infödda arkitektur Graphcore? Säga Graphcore skapar en neuromorphic chip AI: CPU, som skapats i bilden av den mänskliga hjärnan, med dess neuroner och synapser, vilket återspeglas i arkitekturen. Men Knowles bot på detta:

“Hjärnan är ett bra exempel för dator arkitekter i denna nya djärva strävan maskinens intelligens. Men styrkor och svagheter i silicon skiljer sig mycket från den matematiska egenskaper fuktig pålägg. Vi kopierade verk av naturen, varken i luftfartyg eller i rörelse på ytan eller i motorer eftersom våra andra tekniska material. Det är samma sak med datorer.

Till exempel, de flesta av neuromorphic datorer projekt till förmån för kommunikation via elektriska impulser i hjärnan. Men den grundläggande analys av effektiviteten av energi direkt drar slutsatsen att en elektrisk våg (två toppar) är två gånger mindre effektiv än den överföring av information med en enda topp, så följer hjärnan kommer inte vara en bra idé. Jag tror, dator arkitekter ska sträva efter att upptäcka hur hjärnan beräknar, men det bör inte bokstavligen kopiera i kisel”.

Att bryta Moores lag, överträffar GPU

Energieffektivitet är ju den begränsande faktorn för neuromorphic arkitekturer, men det är inte begränsat. Kommentera på Moores lag, Tun sa att vi långt överträffat alla förväntningar och vi har fortfarande 10-20 år av framsteg i lager. Men då vi når vissa grundläggande begränsningar.

Thun anser att vi har nått den lägsta spänning som kan användas i sådana marker. Därför kan vi lägga till fler transistorer, men att göra dem mycket snabbare kan det inte. “Din bärbara dator körs på 2 GHz, det är bara fler kärnor. Men vi behöver tusentals kärnor för att arbeta med maskininlärning. Vi behöver olika arkitektoniska processen att utforma marker andra sätt. Den gamla metoder inte fungerar”.

Tun sade att IPU är en universell CPU-maskinens intelligens, är speciellt utformad för maskinens intelligens. “En av fördelarna med vår arkitektur är att den är lämplig för många moderna metoder för maskininlärning, till exempel CNN, men det är optimerade för andra maskin-lärande metoder som inlärning, och andra. Arkitekturen av IPU tillåter oss att överträffa Gpu — den kombinerar massiv parallellism med mer än 1 000 oberoende processorkärnor på IPU och det inbyggda minnet, så att hela modellen kan placeras på ett chip”.

Men hur IPU kan jämföras med Nvidia GPU i praktiken? Han släppte nyligen några av de tester machine learning, där Nvidia verkar ha vunnit. Men som noterats av Thun, data struktur för lärande är olika, eftersom de är mer mångdimensionellt och komplext. Därför, som de behöver för att arbeta på olika sätt. GPU är mycket kraftfull, men inte nödvändigtvis effektiva i att arbeta med dessa data strukturer. Du kan skapa 10 och 100 gånger snabbare modell.

Men hastigheten är inte allt, vad du behöver för att lyckas i detta spel. Nvidia, till exempel, lyckades inte bara på grund av dess kraftfulla GPU. En stor del av dess framgång ligger i mjukvaran. Bibliotek som möjliggjorde för utvecklare att abstrakt från hårdvara egenheter och fokuserar på att optimera sin maskinlärande algoritmer, har blivit en viktig del i företagets framgång.

Revolutionen grafen är på väg att börja

Naturligtvis, du som redan började undra vilken typ av diagram. Vilken typ av struktur, modell och formalism använder Graphcore att representera och arbeta med dessa figurer? Kan vi kalla dem graphs kunskap? Den goda nyheten är att väntan är lång.

“Vi kallar’ em computational grafer. Alla machine learning-modellen är som bäst uttrycks i en kurva, hur det fungerar och TensorFlow. Bara våra räknas med flera storleksordningar mer komplicerat, eftersom vi har samtidighet av flera storleksordningar att arbeta med diagram i våra marker, säger Thun.

Tong lovar att över tid Graphcore kommer att ge utvecklare full tillgång IPU öppen källkod för att deras optimerade bibliotek av grafer så att de kan se hur Graphcore skapar appar..

Graphcore är redan levererar produktionsutrustning till första kunder i början av tillgång. Nu Graphcore säljer PCIe-kort som är redo-att-ansluta-till-server-plattformar, som heter C2 IPU-Processor. Var och en innehåller två processorer IPU. Bolaget också arbeta med Dell på att locka till sig företagskunder, och cloud kunder.

Produkten kommer att vara allmänt tillgänglig nästa år. Den första fokus kommer att vara på datacenter, moln-lösningar och en rad perifera tillämpningar som kräver stora dataresurser, som Autonoma bilar. För konsumenten enheter såsom mobiltelefoner Graphcore ännu inte fokuserad.

Jag tror att vi har en revolution? Låt oss diskutera i vår chatt i Telegram.


Date:

by