HPE Gir Store Single-Minne Datamaskinen Prototype

HPE på tirsdag introduserte verdens største enkelt-minne datamaskinen som en del av Maskinen, dens forskningsprosjekt i minnet-drevet computing.

Datamaskinen har 160 T-byte med minne, og HPE forventer arkitektur for å tillate minne til å skalere opp til 4.096
yottabytes.

Minnet er spredt over 40 fysiske noder som er knyttet sammen ved hjelp av en høy-ytelse stoff protokollen.

Datamaskinen kjører på en optimalisert Linux-basert operativsystem som kjører ThunderX2, Cavium flaggskip andre generasjon dual socket-stand ARMv8-En arbeidsmengde som er optimalisert System på en Brikke.

Den bruker fotonikk/optisk kommunikasjon lenker, inkludert den nye HPE X1 fotonikk-modulen.

Maskinen har programvare programmering verktøy utviklet for å dra nytte av rikelig vedvarende minne.

Teknologien er bygget for de store data-tiden, HPE sa.

En Størrelse Passer Alle

“Vi tror at vi har fått en arkitektur som vekter hele veien fra kanten enheter — intelligent kanten — gjennom noen større systemer som er trolig mer i tråd med hva vi har bygget ut som en prototype,” sa HPE Andre Andrew Wheeler, assisterende direktør i Hewlett Packard Labs.

“Hvis du tror seriøst mot at omfanget av ting, du er på vei opp mot konvensjonelle superdatamaskiner, som har sin skala, begrensninger og vil ha energinivåer 10 til 20 ganger hva vi har her,” fortalte han TechNewsWorld. 400 noder og 160 T-byte med minne “alle passer veldig godt innenfor en enkelt [server] rack.”

HPE har diskutert teknologi med hundrevis av kunder, er det sagt, inkludert industri vertikaler, high-performance computing selskaper, analytics bedrifter, finansielle institusjoner og andre, Wheeler sa, og understreker at “alle vi snakket med helt resonerer.”

Minne-Drevet Computing Forskjell

HPE minne-drevet maskinen har “enorm fart,” Wheeler sa, fordi alt ligger på minnet stoff.

HPE jobber på at stoffet som en del av
Gen-Z-Konsortiet, som inkluderer ARM, AMD, Cavium, Broadcom, Huawei, IBM, Lenovo, Micron, Dell, EMC, Seagate og Western Digital blant sine medlemmer.

Nåværende
von Neumann-arkitektur har datamaskiner flytte data “all over the place,” bemerket Paul Teich, en rektor analytiker ved Tirias Forskning. “Selv om du arbeider med en av de store [Programvare som en Tjeneste] suites, de bruker mye energi og tid på å flytte data rundt gjennom prosessorer.”

Etter å ha 160 T-byte i en plass lar brukere “la alle data i minnet, point til en adresse, og alt skjer ‘automagisk’,” Teich fortalte TechNewsWorld.

“Alt blir mye raskere og mer flytende,” forklarte han, “og gitt at den primære big data datasettet ikke endres, den energi du sparer ved å ikke flytte data ut av lagring i dusinvis eller hundrevis av maskiner er stort. I stedet for å måtte flytte dataene nærmere en prosessor, du har prosessor nærmere data.”

En annen Side av Historien

Minne-drevet maskinen “er en merkelig blanding av teknologi, varme bruk av optisk, og flash-minne så hastigheter bør være eksepsjonell, men det er ingen GPU, og [bruker] ARM Cpuer, slik at behandlingen kan være relativt sakte,” bemerket Rob Enderle, rektor analytiker på Enderle Group.

“Denne saken kunne håndtere en imponerende mengde data veldig raskt, så lenge du ikke å gjøre så mye med det,” sa han til TechNewsWorld.

“Jeg ser ikke verden å sette alle helse-poster i et enkelt system — eller Facebook alle sine data,” sa Holger Mueller, en rektor analytiker i Konstellasjonen Forskning.

“De fleste av de Store Data-bruk saker vi vet i dag er fine med HDD, eller HDD med noen minne drevet av Spark,” fortalte han TechNewsWorld. Som etterlater “begrenset rom for det nye tilbudet for bare svært høy verdi, høy kostnad rettferdiggjøre bruk saker.”

Kostnad vil være den viktigste faktoren som driver markedet, Mueller foreslått.

Intel har lansert 3D Punkt Minne, stemplet som “Optane”, som også er vedvarende, men den utfører i nærheten DRAM hastighet, Enderle påpekt.

Som “sannsynlig gjør HPE innsats foreldet før den sendes,” sa han. “Hadde [HPE] tok dette ut i 2015 når det var forventet at det ville ha vært langt mer interessant.”


Richard Adhikari har vært en ECT Nyheter Network reporter siden 2008. Hans fokusområder inkluderer cybersecurity, mobil teknologi, CRM, databaser, utvikling av programvare, stormaskin og mid-range computing og app-utvikling. Han har skrevet og redigert for en rekke publikasjoner, inkludert Informasjon Uken, og Computerworld. Han er forfatter av to bøker på klient/server-teknologi.
E-Richard.


Date:

by