HPE tirsdag introducerede verdens største enkelt-hukommelse computeren som en del af Maskinen, dens forskningsprojekt i hukommelsen-drevet computing.
Computeren har 160 T-bytes af hukommelse, og HPE forventer, at den arkitektur til at give hukommelse til at skalere op til 4.096
yottabytes.
Den hukommelse, der er spredt over 40 fysiske noder, der er indbyrdes forbundet ved hjælp af en high-performance stof-protokollen.
Computeren kører på en optimeret Linux-baseret operativsystem, der kører ThunderX2, Cavium ‘ s flagskib anden generation af dual socket-stand ARMv8-En arbejdsbyrde, der er optimeret System på en Chip.
Det bruger fotonik/optisk kommunikation links, herunder den nye HPE X1 fotonik modul.
Computeren har programmering af software-værktøjer, som er designet til at drage fordel af den rigelige vedvarende hukommelse.
Den teknologi, der er bygget til den æra af store data, HPE sagde.
En Størrelse Passer Alle
“Vi tror, at vi har fået en arkitektur, der skalerer hele vejen fra kant enheder-den intelligente kant-gennem nogle af de større systemer, der er nok mere i overensstemmelse med, hvad vi har bygget som en prototype,” sagde HPE Kollega Andrew Hjuler, stedfortrædende direktør for Hewlett Packard Labs.
“Hvis du tror, at konkurrer imod, at omfanget af ting, du går op mod konventionelle supercomputere, som har deres skala grænser og vil have energi forbrug 10 til 20 gange hvad vi har her,” fortalte han TechNewsWorld. 400 noder og 160 T-bytes af hukommelse “alle passer meget komfortabelt inden for et fælles [server] rack.”
HPE har drøftet teknologi med hundredvis af kunder, der sagde, herunder brancher, high-performance computing-virksomheder, analytics, virksomheder, finansielle institutioner og andre, Wheeler sagde, at bemærke, at “alle vi talte med helt re-lyde.”
Hukommelse-Drevet Computing Forskel
HPE hukommelse-drevet computer tilbud “enorm hastighedsforøgelse,” Wheeler sagde, fordi alt er bosat på den hukommelse, stof.
HPE arbejder på, at stof som en del af
Gen-Z Konsortium, som omfatter ARM, AMD, Cavium, Broadcom, Huawei, IBM, Lenovo, Micron, Dell, EMC, Seagate og Western Digital blandt sine medlemmer.
Den nuværende
von Neumann arkitektur har computere flytning af data “over det hele,” bemærkede Paul Teich, en ledende analytiker hos Tirias Forskning. “Selv hvis du arbejder med et af de store [Software som en Service] suites, de bruger en masse energi og tid på at flytte data rundt gennem processorer.”
Der 160 T-bytes i et rum, lader brugere “lad alle data i hukommelsen, skal du pege på en adresse, og alt sker automatisk,” Teich fortalte TechNewsWorld.
“Alt bliver meget hurtigere og mere flydende,” forklarede han, “og i betragtning af, at din primære big data datasættet ikke ændre på, med den energi, du sparer ved ikke at flytte data ud af opbevaring i snesevis eller hundredvis af maskiner, er enorm. I stedet for at skulle til at flytte data tættere på en processor, har du processor tættere på data.”
En anden Side af Historien
Hukommelse-drevet computer “er en mærkelig blanding af teknologi -, varme-brug af optiske, og flash, så hukommelsen hastigheder bør være en undtagelse, men der er ingen GPU, og det bruger] ARM Cpu’ er, så behandlingen kan være relativt langsom,” bemærkede Rob Enderle, ledende analytiker hos Enderle Group.
“Denne ting kunne håndtere en imponerende mængde af data meget hurtigt, så længe du ikke gøre så meget med det,” fortalte han TechNewsWorld.
“Jeg ved ikke, hvor at sætte alle patientjournaler i et enkelt system-eller Facebook alle sine data,” bemærkede Holger Müller, en ledende analytiker hos Constellation Research.
“De fleste af de Store Data use cases, vi kender i dag, er det fint med, HDD, HDD med nogle af hukommelse drevet af Spark,” fortalte han TechNewsWorld. Det efterlader “begrænset plads til nye tilbud for kun i meget høj værdi, høje omkostninger-der kan begrunde anvendelsen tilfælde.”
Omkostningerne vil være den vigtigste faktor, der driver markedet, Müller foreslog.
Intel har lanceret 3D Punkt Hukommelse, stemplet som “Optane”, som også er vedholdende, men det optræder på nær DRAM hastighed, Enderle påpeget.
At “sandsynligvis gør HPE indsats forældet, før den skibe,” sagde han. “Havde [HPE] ført dette ud i 2015, da det var forventet, at det ville have været langt mere interessant.”