Az Nvidia bejelentette a Vera Rubin NVL72 Server Rack új tárolási platformját a bizalmas számítástechnikához
Az AI-infrastruktúra-óriás az Nvidia vezérigazgatója, Jensen Huang CES 2026 vitaindítóját használta Rubin GPU-platformjának bevezetésére, amely a gyorsan eladott Blackwell Ultra termékei várva várt folytatása. A partnerek elérhetősége a tervek szerint az idei év második felében kezdődik. Az Nvidia hétfőn bemutatta az új „referenciamemória” tárolóplatformot, a „zéró állásidőt” biztosító karbantartási képességeket, a rack-méretű bizalmas számítástechnikát és más újdonságokat az AI-adatközpontok számára készült Vera Rubin NVL72 szerverállványához. Az AI-infrastruktúra-óriás az Nvidia vezérigazgatója, Jensen Huang CES 2026 vitaindítóját használta Rubin GPU-platformjának bevezetésére, amely a gyorsan eladott Blackwell Ultra termékei várva várt folytatása. Ám bár a vállalat szerint a Rubin „teljes gyártásban” van, a kapcsolódó termékek csak az idei év második felében lesznek elérhetők a partnerektől.
(Kapcsolódó: 2025 10 legnagyobb Nvidia híre)
Huang és az Nvidia más vezetői az elmúlt hónapokban ellensúlyozták a félelmeket, hogy a mesterséges intelligencia-adatközpontok tömeges kiépítése egy buborékot jelent, és azt mondták, hogy a vállalat 500 milliárd dollár bevételre számít a Blackwell & Rubin termékekből a múlt év eleje és az idei év vége között, hivatkozva a generatív, ügynöki és fizikai mesterségesintelligencia-megoldások iránti folyamatos keresletre. A Rubin népszerűsítése során az Nvidia bejelentette, hogy széles körű támogatást nyújt a nagy és befolyásos technológiai cégektől, köztük az Amazon Web Services, a Microsoft, a Google Cloud, a CoreWave, a Cisco, a Dell Technologies, az Apache, a Lenovo és még sokan mások részéről. A kaliforniai székhelyű Santa Clara cég kezdetben kétféleképpen tervezi a Rubint elérhetővé tenni: a Vera Rubin NVL72 rack-méretű platformon keresztül, amely 72 Rubin GPU-t és 36 egyedi, Arm-kompatibilis Vera CPU-t ad hozzá, valamint a HGX Rubin NVL8 platformon keresztül, amely nyolc Rubin GPU-t ad az x86-os CPU-kat futtató szerverekhez. Mindkét platformot támogatni fogja az Nvidia DGX SuperPod fürtje. A rack-méretű platformot eredetileg Vera Rubin NVL144-nek hívták, amikor tavaly márciusban az Nvidia GTC 2025 rendezvényén mutatták be, a 144-es szám pedig az egyes szerverállványokban lévő GPU-kimenetek számát hivatott tükrözni. A cég azonban végül ellene döntött, ehelyett a Grace Blackwell rack-méretű platformokhoz használt NVL72 nómenklatúra mellett döntött, amely tükrözi a GPU-csomagok számát, amelyek mindegyike két GPU-lemezt tartalmaz. A Blackwell termékekhez készült GPU-csomagok két GPU-betétet is tartalmaznak, amelyek nagy sebességű, vágólapok közötti összeköttetésen keresztül kapcsolódnak össze. „Alapvetően összhangban vagyunk azzal, ahogyan a Blackwell esetében pozícionáltuk és beszéltünk róla, és ezt szorgalmazzuk Vera Rubinnak is” – mondta Dion Harris, az Nvidia nagy teljesítményű számítástechnikai és mesterséges intelligencia-infrastruktúra-megoldásokért felelős vezető igazgatója vasárnap egy újságírókkal és elemzőkkel tartott tájékoztatón. Harris elmondta, hogy a Rubin platform, amelynek zászlóshajója a Vera Rubin NVL72 rack, tartalmaz Rubin GPU-kat, Vera CPU-kat – az Nvidia első CPU-it egyedi, Arm-kompatibilis magokkal – és négy másik új chipet, amelyeket a vállalat közösen tervezett, hogy „kielégítse a legfejlettebb modellek igényeit és csökkentse az intelligencia költségeit”. A Vera Rubin NVL72 specifikációi és szolgáltatásai A vállalat számos specifikációt és szolgáltatást biztosított a Rubin platformhoz, amelyek közül néhányat megosztottak a korábbi eseményeken. Minden Vera CPU 88 egyedi Olympus magot, 176 szálat az Nvidia új térbeli többszálú technológiájával, 1,5 TB LPDDR5X rendszermemóriát, 1,2 Tbps memória sávszélességet és bizalmas számítási képességeket tartalmaz. Ezenkívül rendelkezik egy 1,8 TBps-os NVLInk chip-to-chip összeköttetéssel is, amely támogatja a koherens memóriát a GPU-val. A tájékoztatón Harris elmondta, hogy a CPU bizalmas számítási funkciója lehetővé teszi a Vera Rubin számára, hogy „az első rack méretű megbízható végrehajtási környezetet biztosítsa, amely fenntartja az adatbiztonságot a CPU, a GPU és az NVLink tartományokban (a világ legnagyobb szabadalmaztatott modelljei, tanítási adatai és következtetési munkaterhelései védelmére).” A Vera mikroarchitektúrán alapuló Rubin GPU viszont 50 petaflopsra képes következtetések levonására az Nvidia NVFP4 adatformátumát használva, ami ötször gyorsabb, mint a Blackwell – közölte a cég. Elődjéhez képest 35 petaflopot is tud végezni az NVFP4 edzéshez. A HBM4 nagy sávszélességű memóriájának sávszélessége 2,8 Tbps, míg az NVLink sávszélessége 3,6 Tbps, ami kétszer olyan gyors. A platform 400G SerDeket is tartalmaz a hálózatok bővítéséhez. A 28,8 Tbps teljes sávszélességgel és 14,4 teraflop FP8 hálózaton belüli számítástechnikával a Rubin platform az Nvidia ConnectX-9 SuperNIC és BlueField-4 DPU-ját használja a hálózatok kibővítésének a következő szintre emeléséhez, mondta az Nvidia. Az NVFP4 3,6 exaFLOPS következtetési teljesítményre képes, ami ötször több, mint a Blackwell-alapú iteráció. Az NVFP4 formátumú edzési teljesítmény eléri a 2,5 exaFLOPS értéket, ami 3,5-szerese az elődnek. Az Nvidia szerint a Vera Rubin 54 TB LPDDR5X kapacitással rendelkezik, ami 2,5-szer több, mint a Blackwell. A HBM4 sávszélessége eléri a 20,7 TB/s-t, ami 2,8-szorosa a Blackwell NVL72 platforménak. „Ez nagyobb sávszélesség, mint a teljes globális internet” – mondta Harris a harmadik generációs NVL72 rack rugalmassági funkcióiról. Az Nvidia elmondta, hogy a Vera Rubin tartalmazza az NVL72 rack-rugalmassági technológiájának harmadik generációját is, amely 18-szor gyorsabb összeszerelést és szervizelést tesz lehetővé. Az egyéb funkciók közé tartozik az NVLink Intelligent Resiliency, amely a vállalat állítása szerint lehetővé teszi a szerver karbantartását „nulla állásidővel” – mondta Harris. Leállási karbantartást és hibatűrést biztosít, lehetővé téve, hogy a rackek még akkor is működőképesek maradjanak, ha a kapcsolótálcákat eltávolítják vagy részlegesen be vannak töltve.” A megbízhatóság, a rendelkezésre állás és a szervizelhetőség követelményei érdekében egy második generációs RAS-motor is rendelkezésre áll, amely az Nvidia szerint lehetővé teszi a GPU-diagnosztikát anélkül, hogy a rack offline állapotba kerülne. „Ezek a funkciók növelik a rendszer rendelkezésre állási idejét és átviteli sebességét, csökkentve az Nvidiaris által a képzés költségeit.” Az ügynöki mesterséges intelligencia munkaterhelései hatalmas mennyiségű környezeti adatot generálnak, az Nvidia pedig egy új tárolóplatformot vezet be, amely jelentősen növeli a következtetések teljesítményét és energiahatékonyságát az Nvidia Inference Context Memory Storage Platform néven, és Harris szerint a technológia Bluefield-4 és Spectrum-X segítségével hoz létre egy „AI-natív tárolónyelvet, amely támogatja az Ethernet kulcsfontosságú gyorsítótárát” – a kulcsfontosságú adattároló nyelvet. A tokenek létrehozásának és tárolásának módja Ez az új platform ötször több tokent biztosít másodpercenként, és ötször jobb energiahatékonyságot biztosít a hagyományos hálózati tárolási lehetőségekhez képest. Ezek a munkaterhelések hangsúlyozzák, hogy a kontextus mennyire hatékonyan tárolható, újrafelhasználható és megosztható a rendszerek között.” Harris szerint az Nvidia „szorosan együttműködik tárolási partnereinkkel annak érdekében, hogy a következtetési kontextusmemória új szintjét hozza a Rubin platformra, így az ügyfelek egy teljes, integrált AI-infrastruktúra részeként telepíthetik azt.”
Megjelenési Dátum: 2026-01-05 23:00:00
Forráslink: www.crn.com















