Nvidia Favner Dybt Neurale Net Med Volta

På dette års
GPU Technology Conference, Nvidia ‘ s førende konference for teknisk databehandling med grafiske processorer, har selskabet forbeholdt den øverste keynote til selskabets administrerende DIREKTØR Jensen Huang. I løbet af de år, de GTC-konferencen gik fra et segment i en større, for det meste gaming-orienterede og lidt spredning konference kaldet “nVision” til at blive en af de vigtigste konferencer, der blander akademiske og kommercielle high-performance computing.

Jensen ‘ s budskab var, at GPU-accelererede machine learning er vokset til at berøre alle aspekter af it. Mens det bliver lettere at bruge neurale net, teknologien har stadig en vej at gå for at nå et bredere publikum. Det er et svært problem, men Nvidia kan lide at løse svære problemer.

Jensen Huang

Nvidia strategi er at udbetale machine learning i hvert marked. For at opnå dette, er det selskab, der investerer i Dyb Learning Institute, en uddannelse-program til at sprede den dybe læring neurale net programmering model til en ny klasse af udviklere.

Meget som Solen fremmes Java med en omfattende række af kurser, Nvidia ønsker at få alle programmører til at forstå neurale net programmering. Med dyb neurale netværk (DNNs) bekendtgjort i mange segmenter, og med cloud støtte fra alle de store cloud-leverandører, dyb læring (DL) kan være overalt — tilgængelig på enhver måde, du ønsker det, og er integreret i hver ramme.

DL vil også komme til Kant. tingenes internet vil være så allestedsnærværende, at vi får brug for software til at skrive software, Jensen forudsagt. Fremtiden for kunstig intelligens handler om automatisering af automatisering.

Dyb Læring Behov for Flere Resultater

Nvidia ‘ s konference handler om at opbygge et pervasive økosystem omkring sin GPU-arkitekturer. Økosystemet påvirker den næste GPU iteration så godt. Med begyndelsen af Gpu ‘er til high-performance computing og supercomputere, markedet krævede mere præcis beregning i form af double precision floating point format behandling, og Nvidia var den første til at tilføje en fp64 enhed til sine Gpu’ er.

Gpu ‘ er er den fremherskende accelerator for machine learning uddannelse, men de kan også blive brugt til at fremskynde inferens (beslutning) udførelse proces. Inferens ikke kræver så meget præcision, men det kræver hurtige gennemløb. For at behov, Nvidia ‘ s Pascal arkitektur kan udføre hurtigt, 16-bit floating-point matematik (fp16).

De nyeste GPU ‘ er til at imødekomme behovet for hurtigere neurale net behandling ved at indarbejde en bestemt processing unit for DNN tensors i sin nyeste arkitektur — Volta. Volta GPU-processor, der allerede har flere kerner og regnekraft end den hurtigste Pascal GPU, men derudover tensor core skubber DNN ydeevne yderligere. Den første Volta chip, V100, er designet til den højeste ydeevne.

V100 er en massiv 21 milliarder transistorer i halvleder-virksomhed TSMC ‘ s 12nm FFN high-performance fremstillingsprocessen. Den 12nm proces — en indskrænkning af 16nm FF proces — tillader brug af modeller fra 16nm. Dette reducerer design gang.

Selv med de skrumpe, på 815mm2 Nvidia skubbet størrelsen af V100 dør til selve grænserne for det optiske sigtemiddel.

V100 bygger på Nvidia ‘ s arbejde med høj ydeevne Pascal P100 GPU, herunder de samme mekaniske layout, elektriske forbinder, og den samme magt krav. Dette gør V100 en nem opgradering fra P100 i rack-servere.

For traditionelle GPU behandling, V100 har mere end 5,120 CUDA (compute unified device architecture) kerner. Chippen er i stand til 7.5 Tera FLOPS af fp62 matematik og 13TF af fp32 matematik.

Fodring data til at kerner, der kræver en enorm mængde hukommelse, der er båndbredde. V100 bruger anden generation af high-bandwidth hukommelse (HBM2) teknologi til at fodre 900 Gigabyte/sec af båndbredde til chip fra 16 GB.

Mens V100 understøtter den traditionelle PCIe interface, chip udvider kapacitet ved at levere 300 GB/sek over seks NVLink grænseflader til GPU ‘en-til-GPU-forbindelser eller GPU-til-CPU-forbindelser (i øjeblikket kun er IBM’ s POWER 8 understøtter Nvidia ‘ s NVLink wire-baseret kommunikation protocol).

Men den virkelige forandring i Volta er tilføjelsen af tensor matematik enhed. Med denne nye enhed, er det muligt at udføre en 4x4x4 matrix-drift i én clock cycle. Tensor enhed tager i en 16-bit floating-point værdi, og den kan udføre to matrix-operationer og en samle-alle i én clock cycle.

Interne beregninger i tensor enhed udføres med fp32 præcision for at sikre nøjagtighed over mange beregninger. V100 kan udføre 120 Tera FLOPS af tensor matematik hjælp 640 tensor kerner. Dette vil gøre Volta meget hurtigt for dybt neurale net uddannelse og slutning.

Fordi Nvidia allerede har opbygget et omfattende DNN rammer med sin CuDNN biblioteker, software vil være i stand til at bruge den nye tensor enheder lige ud af porten med et nyt sæt af biblioteker.

Nvidia vil udvide sin støtte til DNN inferens med TensorRT — hvor kan det tog neurale net og udarbejde modeller for real-time udførelse. V100 har allerede en derhjemme og ventede på, at det i Oak Ridge National Labs’ Topmøde supercomputer.

Nvidia Driver AI I Toyota

At bringe DL til et bredere marked, også kørte Nvidia til at bygge en ny computer for autonome kørsel. Den Xavier processor er den næste generation af processor drift af selskabets Kørsel PX platform.

Denne nye platform blev valgt af Toyota som grundlag for produktion af autonome biler i fremtiden. Nvidia kunne ikke afsløre nogen detaljer om, når vi vil se Toyota biler ved hjælp af Xavier på vejen, men der vil være forskellige niveauer af selvstændighed. herunder copiloting til pendling og “guardian angel” forebyggelse af ulykker.

Unik til Xavier processor er den DLA, en dyb læring accelerator, der tilbyder 10 Tera operationer af ydeevne. Den tilpassede DLA vil forbedre kraft og hastighed for specialiserede funktioner, såsom computer vision.

For at sprede DLA virkning, vil Nvidia open source-instruktionssæt og RTL for nogen tredjepart at integrere. I tillæg til DLA, Xavier System-on-Chip vil have Nvidia ‘ s custom 64-bit ARM kerne og Volta GPU.

Nvidia fortsætter med at udføre på sin high-performance computing køreplan og er begyndt at lave store ændringer på sin chip arkitekturer til at støtte dybt hælder. Med Volta, Nvidia har lavet den mest fleksible, og robust platform for dyb læring, og det vil blive den standard, som alle andre dybt læringsplatforme er dømt.

Kevin Krewell er en ledende analytiker hos
Tirias Forskning.


Date:

by