NVIDIA HGX™ Supercomputing
Entwickelt für für KI, Simulationen & Datenanalysen
Das Training von KI-Modellen, komplexe Simulationen und die Analyse umfangreicher Datensätze erfordern meherere leistungsstarke GPUs mit extrem schnellen Verbindungen und einem vollständig beschleunigten Software-Stack. Die NVIDIA HGX™ Supercomputing-Plattform vereint die volle Leistung von NVIDIA H200 und NVIDIA H100 GPUs, NVIDIA NVLink™, NVIDIA Netzwerken und bietet zudem einen optimierten KI- und HPC-Software-Stack für maximale Anwendungsleistung. So können Ergebnisse wesentlich schneller und effizienter bereitgestellt werden.
Key Features der NVIDIA HGX™ Plattform
- Transformer Engine
- NVIDIA NVLink™ der vierten Generation
- NVIDIA Confidential Computing
- NVIDIA Multi Instance GPU (MIG)
- DPX Instructions
NVIDIA HGX™ Lösungen von ASUS und Supermicro
Als zertifizierter NVIDIA Elite Partner können wir Ihnen NVIDIA HGX™-Lösungen beider Hersteller anbieten. Sprechen Sie uns gerne an, unsere GPU-Server-Experten beraten Sie individuell und persönlich!
ASUS HGX™-Lösungen Supermicro HGX™-Lösungen Mehr erfahrenASUS GPU Server HGX H200 ESC N8-E11V
- 7 HE Rack Server Gehäuse
- 2x Intel Xeon 8462Y+ CPU
- 8x NVIDIA HGX H200 GPU
- 2.0 TB DDR5-5600 RAM
- 5x 1.92 TB U.3 NVMe (9.6 TB)
- 8x NVIDIA ConnectX-7 400 Gb/s
Hst-Nr: ESC N8-E11VSupermicro GPU Server HGX H100 SYS-821GE-TNHR
- 8 HE Rack Server Gehäuse
- 2x Intel Xeon Platinum 8480+ CPU
- 8x NVIDIA HGX H100 GPU
- 2.0 TB DDR5-4800 RAM
- 8x 7.64 TB U.3 NVMe (61.12 TB)
- 8x NVIDIA ConnectX-7 400 Gb/s
- 1x NVIDIA BlueField-2 DPU
Hst-Nr: SYS-821GE-TNHRSupermicro GPU Server HGX H100 AS-8125GS-TNHR
- 8 HE Rack Server Gehäuse
- 2x AMD EPYC 9474F CPU
- 8x NVIDIA HGX H100 GPU
- 1.5 TB DDR5-4800 RAM
- 8x 3.84 TB U.3 NVMe (30.72 TB)
- 8x NVIDIA ConnectX-7 400 Gb/s
- 1x Supermicro AOC-STGS-I2T 10 Gb/s
Hst-Nr: AS-8125GS-TNHR
Supermicro GPU Server HGX H100 SYS-821GE-TNHR
- 8 HE Rack Server Gehäuse
- 2x Intel Xeon Platinum 8480+ CPU
- 8x NVIDIA HGX H100 GPU
- 2.0 TB DDR5-4800 RAM
- 4x 7.64 TB U.3 NVMe (30.56 TB)
- 8x NVIDIA ConnectX-7 400 Gb/s
- 1x NVIDIA ConnectX-6 100 Gb/s
Hst-Nr: SYS-821GE-TNHRASUS GPU Server HGX H100 ESC N8A-E12
- 7 HE Rack Server Gehäuse
- 2x AMD EPYC 9554 CPU
- 8x NVIDIA HGX H100 GPU
- 1.5 TB DDR5-4800 RAM
- 10x 2.5" Festplatteneinschübe
- 2x NVIDIA ConnectX-6 100 Gb/s
Hst-Nr: ESC N8A-E12ASUS GPU Server HGX H100 ESC N8-E11
- 7 HE Rack Server Gehäuse
- 2x Intel Xeon 8480+ CPU
- 8x NVIDIA HGX H100 GPU
- 2.0 TB DDR5-4800 RAM
- 10x 2.5" Festplatteneinschübe
- 1x 512 GB Samsung PM9A1 M.2 NVMe SSD
Hst-Nr: ESC N8-E11
End-to-End beschleunigte Computing-Plattform
Das NVIDIA HGX™ H200 kombiniert H200 Tensor Core GPUs mit Hochgeschwindigkeitsverbindungen, um die hochoptimierte und performante Server zu bilden. Konfigurationen von bis zu acht GPUs bieten eine Beschleunigung mit bis zu 1.1 Terabyte (TB) GPU-Speicher und einer aggregierten Speicherbandbreite von 38 Terabyte pro Sekunde (TB/s). Dies kombiniert mit 32 PetaFLOPS Leistung schafft eine beschleunigte leistungsstarke Scale-up-Serverplattform für KI und Hochleistungs-Computing (HPC).
Sowohl HGX™ H200 als auch HGX™ H100 beinhalten Netzwerklösungen mit Geschwindigkeiten von bis zu 400 Gigabit pro Sekunde (Gb/s) und nutzen NVIDIA Quantum-2 InfiniBand und Spectrum™-X Ethernet für optimierte KI-Leistung. HGX™ H200 und HGX™ H100 beinhalten auch NVIDIA® BlueField®-3 Data Processing Units (DPUs), um Cloud-Netzwerke, zusammensetzbaren Speicher, Zero-Trust-Sicherheit und GPU-Compute-Elastizität in hyperskalierbaren KI-Clouds zu ermöglichen.
1.1 TB aggregierter HBM3e-Speicher sorgen für außerordentliche Beschleunigung von HPC- und Inferenzworkloads.
Bis zu 8 H200 SXM GPUs können in einem HGX™ System verbaut werden, und stellen in Kombination mit zwei leistungsstarken AMD / Intel Server Prozessoren eine enorme Rechenleistung für eine große Bandbreite an möglichen Workloads zur Verfügung.
Deep Learning Inferenz: Leistung und Vielseitigkeit
KI löst eine Vielzahl von geschäftlichen Herausforderungen mit ebenso vielfältigen neuronalen Netzwerken. Ein KI-Inferenz-Beschleuniger muss nicht nur hohe Leistung erbringen, sondern auch die Vielseitigkeit bieten, die erforderlich ist, um diese Netzwerke an jedem Ort zu beschleunigen, an dem Kunden sie einsetzen möchten – vom Rechenzentrum bis hin zum Edge.
HGX™ H200 und HGX™ H100 erweitern NVIDIAs Martkplatzierung im Bereich Inferenz.
Deep Learning Training: Leistung und Skalierbarkeit
NVIDIA H200 und H100 GPUs verfügen über die Transformer Engine mit FP8-Präzision, die bis zu 5-mal schnelleres Training für große Sprachmodelle im Vergleich zur vorherigen GPU-Generation bietet. Die Kombination aus der vierten Generation von NVLink – die 900 GB/s GPU-zu-GPU-Verbindung bietet – PCIe Gen5 und der NVIDIA Magnum IO™-Software ermöglicht eine effiziente Skalierbarkeit, von kleinen Unternehmen bis hin zu riesigen, einheitlichen GPU-Clustern. Diese Infrastrukturfortschritte, die in enger Zusammenarbeit mit der NVIDIA AI Enterprise-Software-Suite arbeiten, machen HGX™ H200 und HGX™ H100 zu einer leistungsstarken KI-Computing-Plattform.
Beschleunigen Sie Ihre HPC-Performance
Die Speicherbandbreite ist entscheidend für Hochleistungsrechenanwendungen, da sie schnellere Datenübertragungen ermöglicht und komplexe Verarbeitungsengpässe reduziert. Bei speicherintensiven HPC-Anwendungen wie Simulationen, wissenschaftlicher Forschung und künstlicher Intelligenz sorgt die höhere Speicherbandbreite der H200 dafür, dass Daten effizient abgerufen und verarbeitet werden können. Dies führt zu einer bis zu 110-mal schnelleren Zeit bis zu den Ergebnissen im Vergleich zu CPUs.
Beschleunigung von HGX™ mit NVIDIA Networking
Das Rechenzentrum ist die neue Recheneinheit, und Netzwerke spielen eine integrale Rolle bei der Skalierung der Anwendungsleistung. In Kombination mit NVIDIA Quantum InfiniBand liefert HGX™ herausragende Leistung und Effizienz, was die volle Nutzung der Rechenressourcen sicherstellt.
Für KI-Cloud-Rechenzentren, die Ethernet einsetzen, wird HGX™ am besten mit der NVIDIA Spectrum-X Netzwerkplattform verwendet, die hohe KI-Leistung über Ethernet ermöglicht. Sie verfügt über Spectrum-X-Switches und BlueField-3 DPUs für optimale Ressourcennutzung und Leistungsisolation und liefert konsistente, vorhersehbare Ergebnisse für Tausende von gleichzeitigen KI-Aufgaben in jeder Größenordnung. Spectrum-X ermöglicht fortschrittliche Cloud-Mandantenfähigkeit und Zero-Trust-Sicherheit. Als Referenzdesign hat NVIDIA Israel-1 entwickelt, einen generativen Hyper-Scale KI-Supercomputer, der mit Dell PowerEdge XE9680 Servern auf Basis der NVIDIA HGX™ 8-GPU-Plattform, BlueField-3 DPUs und Spectrum-4 Switches gebaut wurde.
Technische Spezifikationen
Modell | HGX H200 4-GPU | HGX H200 8-GPU | HGX H100 4-GPU | HGX H100 8-GPU |
Formfaktor | 4x NVIDIA H200 SXM | 8x NVIDIA H200 SXM | 4x NVIDIA H100 SXM | 8x NVIDIA H100 SXM |
FP8 Tensor Core | 16 PFLOPS | 32 PFLOPS | 16 PFLOPS | 32 PFLOPS |
INT8 Tensor Core | 16 POPS | 32 POPS | 16 POPS | 32 POPS |
FP16/BFLOAT16 Tensor Core | 8 PFLOPS | 16 PFLOPS | 8 PFLOPS | 16 PFLOPS |
TF32 Tensor Core | 4 PFLOPS | 8 PFLOPS | 4 PFLOPS | 8 PFLOPS |
FP32 | 270 TFLOPS | 540 TFLOPS | 270 TFLOPS | 540 TFLOPS |
FP64 | 140 TFLOPS | 270 TFLOPS | 140 TFLOPS | 270 TFLOPS |
FP64 Tensor Core | 270 TFLOPS | 540 TFLOPS | 270 TFLOPS | 540 TFLOPS |
Speicher | 564GB HBM3e | 1.1TB HBM3e | 320GB HBM3 | 640GB HBM3 |
GPU Bandbreite (Verbund) | 19 GB/s | 38 GB/s | 13 GB/s | 27 GB/s |
NVLink | Vierte Generation | Vierte Generation | Vierte Generation | Vierte Generation |
NVSwitch | N/A | Dritte Generation | N/A | Dritte Generation |
NVSwitch GPU-to-GPU Bandbreite | N/A | 900 GB/s | N/A | 900 GB/s |
Gesamte aggregierte Bandbreite | 3.6 TB/s | 7.2 TB/s | 3.6 TB/s | 7.2 TB/s |