Hvordan AI Kan Holde Hurtigere Efter Moore ‘ s Lov – MIT Technology Review

Google CEO Sundar Pichai, var naturligvis begejstret, da han talte til udviklere om en blockbuster resultat fra hans maskine-learning lab tidligere i denne måned. Forskerne havde regnet ud, hvordan at automatisere nogle af arbejdet i smede-machine-learning software, til noget, der kan gøre det meget nemmere at implementere den teknologi i nye situationer og brancher.

Men projektet havde allerede fået et ry blandt AI forskere, der af en anden grund: den måde, det illustreret, at langt de it-ressourcer, der er nødvendige for at konkurrere på forkant med machine learning.

Et papir fra Google ‘ s forskere siger, at de samtidig brugt så mange som 800 af de magtfulde og dyre grafik-processorer, der har været afgørende for den seneste uptick i kraft af machine learning (se “10 Banebrydende Teknologier 2013: Deep Learning”). De fortalte MIT Technology Review, at projektet var bundet op i hundredvis af chips for to uger solid—hvilket gør den teknik, der er for ressourcekrævende til at være mere end et forsknings-projekt, selv på Google.

En coder uden let adgang til en kæmpe samling af Gpu ‘ er skulle dybe lommer til at gentage eksperimentet. Leje 800 Gpu ‘er fra Amazon’ s cloud computing-tjeneste, der for blot en uge ville koste omkring $120,000 til de nævnte priser.

Andrea Chronopoulos

Fodring af data i dyb læring software til at træne det, for en bestemt opgave er meget mere ressourcekrævende end at køre systemet bagefter, men som stadig tager betydelig pift. “Computerkraft er en flaskehals lige nu for machine learning,” siger Reza Zadeh, adjungeret professor ved Stanford University og grundlægger og CEO af Matroid, en start, som hjælper virksomheder med at bruge software til at identificere objekter, såsom biler og mennesker i sikkerhed optagelser og andre video.

Pludselig tørst efter nye magt til at drive AI kommer på et tidspunkt, hvor it-branchen er en tilpasning til tabet af to ting, den har lagt til grund for 50 år for at holde chips bliver mere kraftfuld. Den ene er Moore ‘ s Lov, der forudsiger, at antallet af transistorer, der kan være monteret i et bestemt område af en chip ville blive fordoblet hvert andet år. Den anden er et fænomen, som kaldes Dennard skalering, som beskriver, hvordan den mængde strøm, der transistorer bruge skalaer ned, som de skrumpe.

Hverken gælder i dag. Intel har bremset tempoet, hvor det indfører generationer af nye chips med mindre, tættere transistorer (se “Moore’ s Lov Er Død. Hvad Nu?”). Og de sædvanlige effektivitetsgevinster, som transistorer viste, da de fik mindre kom til at stå i midten af 2000’erne, hvilket gør strømforbrug en stor hovedpine.

Abonnere på Weekend Læser
Vores guide til historier i arkiverne for at sætte teknologien i perspektiv.

Tilmeld

Tak — tjek venligst din e-mail for at bekræfte dit abonnement.
Forkert e-mail-format

Administrer dine indstillinger for nyhedsbrev

De gode nyheder for dem, der spiller på AI er, at grafik-chips har indtil videre formået at trodse tyngdekraften. På den nylige konference af førende grafik chipmaker Nvidia, CEO Jensen Huang vist et diagram, der viser, hvordan hans chips’ resultater har fortsatte med at stige eksponentielt, mens væksten i udførelsen af generelle processorer, eller Cpu ‘ er, er aftaget.

Doug Burger, en fremtrædende ingeniør på Microsoft ‘ s Næste division, som arbejder på at kommercialisere nye teknologi, siger en lignende forskellen mellem konventionelle og machine-learning software. “Du er begyndt at se en [performance] plateau for generelle software—det har stoppet en forbedring på historiske priser—men dette AI ting er stadig hastigt stigende,” siger han.

Er kunstig intelligens bevæger sig for hurtigt eller for langsomt?

Fortæl os, hvad du mener.

Burger mener, at denne tendens vil fortsætte. Ingeniører har holdt Gpu ‘ er bliver mere magtfulde, fordi de kan være mere specialiseret, at det især matematik, de har brug for til at udføre for grafik eller machine learning, siger han.

Samme idé ligger bag et projekt, som Burger førte mod Microsoft, som er med til at sætte mere power bag AI software ved hjælp af rekonfigurering chips kaldes Fpga. Det er også motiverer de nystartede—og giganter som Google—skabe nye chips tilpasset til magten machine learning (se “Google Afslører en Kraftfuld Ny AI Chip og Supercomputer”).

På længere sigt, mere radikale ændringer i, hvordan computer-chips arbejde vil være forpligtet til at holde AI bliver mere kraftfuld. Oprettelse af chips, der ikke tilføjer præcist er en mulighed. Prototyper har vist, at de kan gøre computere mere effektiv, uden at underminere den nøjagtighed af resultater fra machine-learning software (se “Hvorfor en Chip, Der er Dårlige til Matematik Kunne Hjælpe Computere Tackle Hårdere Problemer”).

Chip-design, der direkte kopi fra biologi kan også være afgørende. IBM og andre har bygget en prototype chips at beregne ved hjælp af pigge af strøm, der svarer til, hvordan vores neuroner brand (se “Tænker i Silicon”). Selv simple dyr, Burger påpeger, så brug lidt energi til at gøre ting, end hvad der i dag er robotter og software kan udrette—bevis for, at computere er meget mere at gå.

“Se på de beregninger, der en kakerlak gør,” siger han. “Der er eksistens beviser, at vise mange flere størrelsesordener af performance og effektivitet, der er tilgængelige. Vi kan få årtier af skalering venstre i AI.”


Date:

by