NVIDIA HGX™ Supercomputing

Entwickelt für für KI, Simulationen & Datenanalysen

Das Training von KI-Modellen, komplexe Simulationen und die Analyse umfangreicher Datensätze erfordern meherere leistungsstarke GPUs mit extrem schnellen Verbindungen und einem vollständig beschleunigten Software-Stack. Die NVIDIA HGX™ Supercomputing-Plattform vereint die volle Leistung von NVIDIA B200 und NVIDIA H200 GPUs, NVIDIA NVLink™, NVIDIA Netzwerken und bietet zudem einen optimierten KI- und HPC-Software-Stack für maximale Anwendungsleistung. So können Ergebnisse wesentlich schneller und effizienter bereitgestellt werden.

Key Features der NVIDIA HGX™ Plattform

  • Transformer Engine
  • NVIDIA NVLink™ der vierten Generation
  • NVIDIA Confidential Computing
  • NVIDIA Multi Instance GPU (MIG)
  • DPX Instructions

NVIDIA HGX™ Lösungen von ASUS und Supermicro

Als zertifizierter NVIDIA Elite Partner können wir Ihnen NVIDIA HGX™-Lösungen beider Hersteller anbieten. Sprechen Sie uns gerne an, unsere GPU-Server-Experten beraten Sie individuell und persönlich!

ASUS HGX™-Lösungen Supermicro HGX™-Lösungen Mehr erfahren
NVIDIA HGX H200 GPU Block

Kategorien

Sortieren nach:

Supermicro GPU Server HGX B200 AS-A126GS-TNBR

  • 10 HE Rack Server Gehäuse
  • 2x AMD EPYC 9005 / 9004 CPU
  • 8x NVIDIA HGX SXM B200 GPU 192 GB HBM3e
  • bis zu 9.0 TB DDR5-6000 RAM
  • 2x 10 Gb/s RJ-45 (Intel X710)
  • 8x PCIe 5.0 x16 (LP), 2x PCIe 5.0 x16 (FHHL)
  • 8x PCIe 5.0 NVMe U.2, 2x 2.5" SATA Hot-Swap
Hst-Nr: AS-A126GS-TNBR
Preis auf Anfrage
Preis anfragen Details Auf die Vergleichsliste

Supermicro GPU Server HGX B200 SYS-A22GA-NBRT

  • 10 HE Rack Server Gehäuse
  • 2x Intel Xeon 6900 Series CPU
  • 8x NVIDIA HGX SXM B200 GPU 192 GB HBM3e
  • bis zu 6.0 TB DDR5-8800 RAM
  • 2x 10 Gb/s RJ-45 (Intel X710)
  • 10x PCIe 5.0 x16 (LP), 2x PCIe 5.0 x16 (FHHL)
  • 10x PCIe 5.0 NVMe U.2, 2x NVMe M.2
Hst-Nr: SYS-A22GA-NBRT
Preis auf Anfrage
Preis anfragen Details Auf die Vergleichsliste

Supermicro GPU Server HGX H200 AS-8125GS-TNHR

  • 8 HE Rack Server Gehäuse
  • 2x AMD EPYC 9474F CPU
  • 8x NVIDIA HGX H200 GPU 141 GB HBM3e
  • 1.5 TB DDR5-4800 RAM
  • 8x 3.84 TB U.3 NVMe (30.72 TB)
  • 8x NVIDIA ConnectX-7 400 Gb/s
  • 1x Supermicro AOC-STGS-I2T 10 Gb/s
Hst-Nr: AS-8125GS-TNHR
Preis auf Anfrage
Preis anfragen Details Auf die Vergleichsliste

Supermicro GPU Server HGX H200 SYS-821GE-TNHR

  • 8 HE Rack Server Gehäuse
  • 2x Intel Xeon Platinum 8468 CPU
  • 8x NVIDIA HGX H200 GPU 141 GB HBM3e
  • 2.0 TB DDR5-4800 RAM
  • 4x 7.64 TB U.3 NVMe (30.56 TB)
  • 8x NVIDIA ConnectX-7 400 Gb/s
  • 1x Supermicro AOC-STGS-I2T 10 Gb/s
Hst-Nr: SYS-821GE-TNHR
Preis auf Anfrage
Preis anfragen Details Auf die Vergleichsliste

ASUS GPU Server HGX H200 ESC N8-E11V

  • 7 HE Rack Server Gehäuse
  • 2x Intel Xeon 8462Y+ CPU
  • 8x NVIDIA HGX H200 GPU 141 GB HBM3e
  • 2.0 TB DDR5-5600 RAM
  • 5x 1.92 TB U.3 NVMe (9.6 TB)
  • 8x NVIDIA ConnectX-7 400 Gb/s
Hst-Nr: ESC N8-E11V
Preis auf Anfrage
Preis anfragen Details Auf die Vergleichsliste

Supermicro GPU Server HGX H100 SYS-821GE-TNHR

  • 8 HE Rack Server Gehäuse
  • 2x Intel Xeon Platinum 8480+ CPU
  • 8x NVIDIA HGX H100 GPU 80 GB HBM3
  • 2.0 TB DDR5-4800 RAM
  • 8x 7.64 TB U.3 NVMe (61.12 TB)
  • 8x NVIDIA ConnectX-7 400 Gb/s
  • 1x NVIDIA BlueField-2 DPU
Hst-Nr: SYS-821GE-TNHR
Preis auf Anfrage
Preis anfragen Details Auf die Vergleichsliste

ASUS GPU Server HGX H100 ESC N8A-E12

  • 7 HE Rack Server Gehäuse
  • 2x AMD EPYC 9554 CPU
  • 8x NVIDIA HGX H100 GPU 80 GB HBM3
  • 1.5 TB DDR5-4800 RAM
  • 10x 2.5" Festplatteneinschübe
  • 2x NVIDIA ConnectX-6 100 Gb/s
Hst-Nr: ESC N8A-E12
Preis auf Anfrage
Preis anfragen Details Auf die Vergleichsliste

ASUS GPU Server HGX H100 ESC N8-E11

  • 7 HE Rack Server Gehäuse
  • 2x Intel Xeon 8480+ CPU
  • 8x NVIDIA HGX H100 GPU 80 GB HBM3
  • 2.0 TB DDR5-4800 RAM
  • 10x 2.5" Festplatteneinschübe
  • 1x 512 GB Samsung PM9A1 M.2 NVMe SSD
Hst-Nr: ESC N8-E11
Preis auf Anfrage
Preis anfragen Details Auf die Vergleichsliste
Zeige:

End-to-End beschleunigte Computing-Plattform

Das NVIDIA HGX™ B200 kombiniert B200 Tensor Core GPUs mit Hochgeschwindigkeitsverbindungen, um die hochoptimierte und performante Server zu bilden. Konfigurationen von bis zu acht GPUs bieten eine Beschleunigung mit bis zu 1.4 Terabyte (TB) GPU-Speicher und einer aggregierten Speicherbandbreite von 14.4 Terabyte pro Sekunde (TB/s). Dies kombiniert mit 144 PetaFLOPS Leistung schafft eine beschleunigte leistungsstarke Scale-up-Serverplattform für KI und Hochleistungs-Computing (HPC).

Sowohl HGX™ B200 als auch HGX™ H200 beinhalten Netzwerklösungen mit Geschwindigkeiten von bis zu 400 Gigabit pro Sekunde (Gb/s) und nutzen NVIDIA Quantum-2 InfiniBand und Spectrum™-X Ethernet für optimierte KI-Leistung. HGX™ B200 und HGX™ H200 beinhalten auch NVIDIA® BlueField®-3 Data Processing Units (DPUs), um Cloud-Netzwerke, zusammensetzbaren Speicher, Zero-Trust-Sicherheit und GPU-Compute-Elastizität in hyperskalierbaren KI-Clouds zu ermöglichen.

1.4 TB aggregierter HBM3e-Speicher sorgen für außerordentliche Beschleunigung von HPC- und Inferenzworkloads.

Bis zu 8 B200 SXM GPUs können in einem HGX™ System verbaut werden, und stellen in Kombination mit zwei leistungsstarken AMD / Intel Server Prozessoren eine enorme Rechenleistung für eine große Bandbreite an möglichen Workloads zur Verfügung.

B200 Datenblatt Beratung anfordern
NVIDIA HGX H200 Ansicht von oben

Deep Learning Inferenz: Leistung und Vielseitigkeit

KI löst eine Vielzahl von geschäftlichen Herausforderungen mit ebenso vielfältigen neuronalen Netzwerken. Ein KI-Inferenz-Beschleuniger muss nicht nur hohe Leistung erbringen, sondern auch die Vielseitigkeit bieten, die erforderlich ist, um diese Netzwerke an jedem Ort zu beschleunigen, an dem Kunden sie einsetzen möchten – vom Rechenzentrum bis hin zum Edge.

HGX™ B200 und HGX™ H200 erweitern NVIDIAs Martkplatzierung im Bereich Inferenz.


Vergleich des Echtzeit-Durchsatzes der HGX B200 und HGX H100 beim GPT-MoE-1.8T Trainingsmodell

Echtzeit-Inferenz für die nächste Generation großer Sprachmodelle

Die HGX B200 erreicht eine bis zu 15-fach höhere Inferenzleistung im Vergleich zur vorherigen NVIDIA Hopper™-Generation für große Modelle wie GPT MoE 1.8T. Die zweite Generation der Transformer Engine nutzt die maßgeschneiderte Blackwell Tensor Core-Technologie in Kombination mit TensorRT™-LLM und den Innovationen des NVIDIA NeMo™-Frameworks, um die Inferenz für LLMs und Mixture-of-Experts (MoE)-Modelle zu beschleunigen.


Beschleunigung des Modell-Trainings von HGX H100 auf HGX B200 beim GPT-MoE-1.8T-Trainingsmodell

Next-Level Trainingsleistung

Die zweite Generation der Transformer Engine, die FP8 und neue Präzisionsformate unterstützt, ermöglicht ein beeindruckend 3-mal schnelleres Training für große Sprachmodelle wie GPT MoE 1.8T. Dieser Durchbruch wird durch die fünfte Generation von NVLink mit 1,8 TB/s GPU-zu-GPU-Verbindung, den NVSwitch-Chip, InfiniBand-Netzwerke und die NVIDIA Magnum IO-Software ergänzt. Zusammen gewährleisten diese Technologien eine effiziente Skalierbarkeit für Unternehmen und umfangreiche GPU-Computing-Cluster.


Vergleich der TCO zwischen NVIDIA HGX H100 und B200

Nachhaltiges Computing

Durch die Einführung nachhaltiger Computing-Praktiken können Rechenzentren ihren CO₂-Fußabdruck und Energieverbrauch senken, während sie gleichzeitig ihre Wirtschaftlichkeit verbessern. Das Ziel des nachhaltigen Computings kann durch Effizienzsteigerungen mit beschleunigtem Computing auf Basis von HGX erreicht werden. Bei der Inferenzleistung für große Sprachmodelle (LLMs) steigert die HGX B200 die Energieeffizienz um das 12-fache und senkt die Kosten um das 12-fache im Vergleich zur Hopper-Generation.


Beschleunigung von HGX™ mit NVIDIA Networking

Das Rechenzentrum ist die neue Recheneinheit, und Netzwerke spielen eine integrale Rolle bei der Skalierung der Anwendungsleistung. In Kombination mit NVIDIA Quantum InfiniBand liefert HGX™ herausragende Leistung und Effizienz, was die volle Nutzung der Rechenressourcen sicherstellt.

Für KI-Cloud-Rechenzentren, die Ethernet einsetzen, wird HGX™ am besten mit der NVIDIA Spectrum-X Netzwerkplattform verwendet, die hohe KI-Leistung über Ethernet ermöglicht. Sie verfügt über Spectrum-X-Switches und BlueField-3 DPUs für optimale Ressourcennutzung und Leistungsisolation und liefert konsistente, vorhersehbare Ergebnisse für Tausende von gleichzeitigen KI-Aufgaben in jeder Größenordnung. Spectrum-X ermöglicht fortschrittliche Cloud-Mandantenfähigkeit und Zero-Trust-Sicherheit. Als Referenzdesign hat NVIDIA Israel-1 entwickelt, einen generativen Hyper-Scale KI-Supercomputer, der mit Dell PowerEdge XE9680 Servern auf Basis der NVIDIA HGX™ 8-GPU-Plattform, BlueField-3 DPUs und Spectrum-4 Switches gebaut wurde.


Technische Spezifikationen

ModellHGX B200 8-GPUHGX H200 8-GPUHGX H200 4-GPU
Formfaktor8x NVIDIA B200 SXM8x NVIDIA H200 SXM4x NVIDIA H200 SXM
FP8 Tensor Core72 PFLOPS32 PFLOPS16 PFLOPS
INT8 Tensor Core72 POPS32 POPS16 POPS
FP16/BFLOAT16 Tensor Core36 PFLOPS16 PFLOPS8 PFLOPS
TF32 Tensor Core18 PFLOPS8 PFLOPS4 PFLOPS
FP32640 TFLOPS540 TFLOPS270 TFLOPS
FP64320 TFLOPS270 TFLOPS140 TFLOPS
FP64 Tensor Core320 TFLOPS540 TFLOPS270 TFLOPS
Speicher1.4 TB HBM3e1.1 TB HBM3e564 GB HBM3e
Gesamte Aggregierte Bandbreite14.4 TB/s7.2 TB/s3.6 TB/s
NVLinkFünfte GenerationVierte GenerationVierte Generation
NVSwitchVierte GenerationDritte GenerationN/A
NVSwitch GPU-to-GPU Bandbreite1.8 TB/s900 GB/sN/A

Jetzt Kontakt aufnehmen und von unseren GPU Server Experten beraten lassen

Haben Sie Fragen?

Kontaktieren Sie uns gern jederzeit.