Kampen om at Levere Chips til AI Boom Varmes Op – MIT Technology Review

Jensen Huang, administrerende DIREKTØR for Nvidia, på selskabets konference i San Jose, Californien.

Jensen Huang strålede ud over en fyldt konferencesal i San Jose, Californien, på tirsdag, da han annoncerede sit firma ‘ s nye chip, der tager sigte på at fremskynde kunstig intelligens algoritmer. Men billedligt talt, den administrerende DIREKTØR for chip maker Nvidia kiggede over hans skulder.

Nvidia ‘ s overskud, og bestanden er steget voldsomt over de sidste par år, fordi de grafik-processorer er det opfundet til magten spil og grafiske produktion har aktiveret mange af de seneste gennembrud inden for machine learning (se “10 Banebrydende Teknologier 2013: Deep Learning”). Men som investeringer i kunstig intelligens stiger, Huang ‘ s virksomhed står nu over for konkurrence fra Intel, Google, og andre, der arbejder på deres egen AI chips.

På Nvidia ‘s årlige udvikler-konference, onsdag, Huang omhyggeligt undgik at nævne konkurrenter ved navn, som han introducerede Nvidia’ s nyeste chip, kaldet Tesla V100. Han henviste til, at Google kun som “nogle folk,” for eksempel. Men han gjorde det klart, aflæser på den teknologi, Nvidia ‘ s udfordrere, især når vi taler om den store mulighed for at åbne op til at levere AI chips til brug i cloud computing.

Virksomheder i mange brancher, såsom sundhedsvæsen og finansiering er at investere i machine-learning-infrastruktur. Førende cloud computing udbydere Google, Amazon og Microsoft er alle væddemål, at mange virksomheder gerne vil betale dem for at køre kunstig intelligens, software, og kommer til at bruge tungt på ny hardware til at understøtte dette.

Nvidia kom til at dominere den spirende AI chip-markedet ved smart beslaglæggelse på et heldigt sammentræf. Den grundlæggende matematiske operationer, der er nødvendige for computer grafik er de samme som dem, der er underliggende en tilgang til machine learning kendt som kunstige neurale netværk. Start i 2012, forskere viste, at ved at sætte magt bag denne teknik, grafik-processorer tilladt software til at blive meget, meget klogere på opgaver, såsom at fortolke billeder eller indlæg.

Tror du, at kunstig intelligens vil omdanne alle brancher?

Fortæl os hvorfor.

Som AI-markedet er vokset, Nvidia har sammenknebne sin chip design med funktioner til understøttelse af neurale netværk. Den nye V100-chip meddelte i denne uge, er kulminationen af denne indsats, og har en ny kerne specialiseret til at fremskynde dybt-at lære matematik.

Huang sagde sin energi og energieffektivitet ville hjælpe virksomheder eller cloud-leverandører til at dramatisk forbedre deres evne til at bruge AI. “Du kunne øge omsætningen af dine data center med 15 gange i stedet for at skulle bygge nye datacentre,” sagde han.

Nvidia ‘ s nye konkurrenter argumentere for, at de kan gøre hardware til en hurtigere og mere effektiv ved at køre AI-software ved at designe chips, der er indstillet til formålet fra bunden i stedet for at tilpasse grafik chip-teknologi.

For eksempel, Intel løfter om at frigive en chip for dyb læring senere i år bygget på toppen af teknologi, der er erhvervet med start Nervana i 2016 (se “Intel Udenfor, som Andre Virksomheder Trives fra Grafik-Chips”).

Virksomheden er også klar til at frigive et produkt til at fremskynde dyb læring, der er baseret på teknologi fra sin $16,7 milliarder erhvervelse af Altera, som gjorde chips kaldes Fpga, der kan omdannes til strøm specifikke algoritmer. Microsoft har investeret massivt i at bruge Fpga power sin maskine-learning software og gjorde dem til et centrale stykke af sin cloud-platform, Azure.

I mellemtiden, har Google offentliggjort sidste sommer, at det allerede var ved hjælp af en chip, der er tilpasset til AI, som er udviklet in-house, der kaldes en Tensor Processing Unit, eller TPU. De chips understøttet software AlphaGo sejr over en mesterspiller af brætspil Gå til sidste år. De er ikke til salg, men Google siger, at virksomheder, der bruger sin cloud computing-tjenester vil få fordele af deres energi og energieffektivitet.

Flere ingeniører, der byggede Google ‘ s chip er siden forlod virksomheden til at danne en start med $10 millioner i støtte kaldet Groq, der er ved at opbygge en specialiseret maskine-læring chip. Andre nystartede virksomheder, der arbejder på lignende projekter, der omfatter Bølge Design, som siger, at det er allerede at lade kunderne afprøve sin hardware.

Huang hævdede, onsdag, at Nvidia ‘ s teknologi hits sweet spot andre bestræbelser ikke. Brugerdefinerede chips som Google ‘ s TPU er for ufleksible til at fungere lige godt med mange forskellige typer af neurale netværk, sagde han—en væsentlig ulempe i betragtning af, hvor hurtigt nye ideer bliver afprøvet, og der blev vedtaget i AI. Han hævdede, at Fpga ‘ er, som dem, der er begunstiget af Microsoft, og der er væddet på af Intel, indtager for meget energi.

“Vi er ved at skabe den mest produktive platform for dyb læring,” sagde han. Som Huang ‘ s rivaler afsløre mere om deres produkter, dette år, denne påstand vil komme under lup.


Date:

by