HPE Avslöjar Stora Inre-Minne Datorn Prototyp

HPE på tisdagen infördes världens största inre-minne datorn som en del av Maskinen, dess forskningsprojekt i minnet-driven design.

Datorn har 160 T-byte i minnet, och HPE förväntar sig att den arkitektur för att möjliggöra minne för att skala upp till 4.096
yottabytes.

Minnet är spridda över 40 fysiska noder som är sammankopplade med hjälp av en hög-prestanda tyg protokoll.

Datorn körs på en optimerad Linux-baserat operativsystem som körs ThunderX2, Cavium flaggskepp andra generationens dual-socket-kan ARMv8-En arbetsbelastning optimerade System på ett Chip.

Den använder fotonik/optisk kommunikation länkar, inklusive den nya HPE X1 fotonik modul.

Datorn har programmering verktyg som har utformats för att dra nytta av riklig bestående minne.

Tekniken är byggd för big data-eran, HPE sagt.

En Storlek Passar Alla

“Vi tror att vi har en arkitektur som vågar hela vägen från kant-enheter-den intelligenta kanten — genom några större system som förmodligen är mer i linje med vad vi har byggt ut som en prototyp,” sade HPE Kollega Andrew Wheeler, biträdande chef för Hewlett Packard Labs.

“Om du tror konkurrenskraftigt mot att skala av saker, du är på väg upp mot konventionella superdatorer, som har sina skala gränser och kommer att ha sin energiförbrukning med 10 till 20 gånger mer än vad vi har här”, sa han till TechNewsWorld. 400 noder och 160 T-byte minne “alla passar mycket bekvämt i en enda [server] rack.”

HPE har diskuterat tekniken med hundratals kunder, sade man, inklusive branscher, high-performance computing-företag, analytics företag, finansiella institutioner och andra, Wheeler sade, att notera att “alla vi talat med helt genljuder.”

Minnet-Driven Design Skillnad

HPE minne-driven dator har “en enorm fart,” Wheeler sade, eftersom allt befinner sig på minnet tyg.

HPE arbetar på det tyg som en del av
Gen-Z-Konsortiet, som innehåller ARM, AMD, Cavium, Broadcom, Huawei, IBM, Lenovo, Micron, Dell EMC, Seagate och Western Digital bland sina medlemmar.

Nuvarande
von Neumann arkitekturen har datorer flytta data “all over the place”, konstaterade Paul Teich, chefsanalytiker på Tirias Forskning. “Även om du arbetar med en av de stora [Software as a Service] sviter, de tillbringar en hel del energi och tid att flytta data runt via-processorer.”

Med 160 T-byte i ett utrymme som låter användare “lämna alla data i minnet, peka på en adress, och allt sker automagiskt,” Teich berättade TechNewsWorld.

“Allt blir mycket snabbare och mer vätska,” förklarade han, “och med tanke på att din primära big data dataset inte ändra, den energi du sparar genom att inte flytta den data ut av lagring i dussintals eller hundratals maskiner är enorm. I stället för att behöva flytta data närmare en processor, du har processorn närmare uppgifter.”

En annan Sida av Historien

Minnet-driven dator “är en udda blandning av teknik -, värme-användning av optiska, och blixt, så minnet hastigheter bör endast ske i undantagsfall, men det är ingen GPU, och [använder den] för ARM-Processorer, så att behandling kan vara relativt långsam”, konstaterar Rob Enderle, förste analytiker på Enderle Group.

“Denna sak skulle kunna hantera en imponerande mängd data mycket snabbt så länge du inte gör så mycket med det”, sa han till TechNewsWorld.

“Jag ser inte världen att sätta alla journaler i ett enda system-eller Facebook alla sina uppgifter,” sade Holger Müller, en förste analytiker på Constellation Research.

“De flesta av Big Data användningsfall vi vet i dag är bra med HDD, eller HDD med en del av minnet som drivs av Spark”, sa han till TechNewsWorld. Att bladen “begränsat utrymme för det nya erbjudandet för endast mycket högt värde, även hög kostnad-fall som motiverar användning.”

Kostnaden kommer att vara den viktigaste faktorn som driver marknaden, Mueller föreslog.

Intel har lanserat 3D Led-Minne, stämplas som “Optane”, som också är långlivade, men det utför på nära DRAM hastighet, Enderle påpekade.

Som “sannolikt gör HPE ansträngning föråldrat innan det fartyg,” sade han. “Hade [HPE] förde ut 2015 när det var väntat, det skulle ha varit mycket mer intressant.”


Richard Adhikari har varit en ECT News Network reporter sedan 2008. Hans fokusområden omfatta it-säkerhet, mobil teknik, CRM, databaser, utveckling av programvara, stordator och mid-range design, utveckling och tillämpning. Han har skrivit och redigerat ett flertal publikationer, bland annat Information Vecka och Computerworld. Han är författare till två böcker om klient/server-teknik.
E-Post Richard.


Date:

by