Home
  • + 30.000 verkaufte PC & Workstations
  • + 25.000 verkaufte Serversysteme
  • + 5.000 zufriedene Kunden
  • + 14 Jahre Erfahrung
  • + persönliche Beratung
Warenkorb:
0 Artikel - 0,00 €
Sie haben keine Artikel im Warenkorb.

0

NVIDIA HGX™ Supercomputing

Entwickelt für für KI, Simulationen & Datenanalysen

Das Training von KI-Modellen, komplexe Simulationen und die Analyse umfangreicher Datensätze erfordern meherere leistungsstarke GPUs mit extrem schnellen Verbindungen und einem vollständig beschleunigten Software-Stack. Die NVIDIA HGX™ Supercomputing-Plattform vereint die volle Leistung von NVIDIA H200 und NVIDIA H100 GPUs, NVIDIA NVLink™, NVIDIA Netzwerken und bietet zudem einen optimierten KI- und HPC-Software-Stack für maximale Anwendungsleistung. So können Ergebnisse wesentlich schneller und effizienter bereitgestellt werden.

Key Features der NVIDIA HGX™ Plattform

  • Transformer Engine
  • NVIDIA NVLink™ der vierten Generation
  • NVIDIA Confidential Computing
  • NVIDIA Multi Instance GPU (MIG)
  • DPX Instructions

NVIDIA HGX™ Lösungen von ASUS und Supermicro

Als zertifizierter NVIDIA Elite Partner können wir Ihnen NVIDIA HGX™-Lösungen beider Hersteller anbieten. Sprechen Sie uns gerne an, unsere GPU-Server-Experten beraten Sie individuell und persönlich!

ASUS HGX™-Lösungen Supermicro HGX™-Lösungen Mehr erfahren

6 Artikel

  • ASUS GPU Server HGX H200 ESC N8-E11V kaufen ASUS GPU Server HGX H200 ESC N8-E11V kaufen
    8x NVIDIA H200 GPU!

    ASUS GPU Server HGX H200 ESC N8-E11V

    • 7 HE Rack Server Gehäuse
    • 2x Intel Xeon 8462Y+ CPU
    • 8x NVIDIA HGX H200 GPU
    • 2.0 TB DDR5-5600 RAM
    • 5x 1.92 TB U.3 NVMe (9.6 TB)
    • 8x NVIDIA ConnectX-7 400 Gb/s
    Hst-Nr: ESC N8-E11V
    Preis auf Anfrage
    Preis anfragen Details
  • Supermicro GPU Server HGX H100 SYS-821GE-TNHR kaufen Supermicro GPU Server HGX H100 SYS-821GE-TNHR kaufen
    8x NVIDIA H100 GPU!

    Supermicro GPU Server HGX H100 SYS-821GE-TNHR

    • 8 HE Rack Server Gehäuse
    • 2x Intel Xeon Platinum 8480+ CPU
    • 8x NVIDIA HGX H100 GPU
    • 2.0 TB DDR5-4800 RAM
    • 8x 7.64 TB U.3 NVMe (61.12 TB)
    • 8x NVIDIA ConnectX-7 400 Gb/s
    • 1x NVIDIA BlueField-2 DPU
    Hst-Nr: SYS-821GE-TNHR
  • Supermicro GPU Server HGX H100 AS-8125GS-TNHR kaufen Supermicro GPU Server HGX H100 AS-8125GS-TNHR kaufen
    8x NVIDIA H100 GPU!

    Supermicro GPU Server HGX H100 AS-8125GS-TNHR

    • 8 HE Rack Server Gehäuse
    • 2x AMD EPYC 9474F CPU
    • 8x NVIDIA HGX H100 GPU
    • 1.5 TB DDR5-4800 RAM
    • 8x 3.84 TB U.3 NVMe (30.72 TB)
    • 8x NVIDIA ConnectX-7 400 Gb/s
    • 1x Supermicro AOC-STGS-I2T 10 Gb/s
    Hst-Nr: AS-8125GS-TNHR

6 Artikel


End-to-End beschleunigte Computing-Plattform

Das NVIDIA HGX™ H200 kombiniert H200 Tensor Core GPUs mit Hochgeschwindigkeitsverbindungen, um die hochoptimierte und performante Server zu bilden. Konfigurationen von bis zu acht GPUs bieten eine Beschleunigung mit bis zu 1.1 Terabyte (TB) GPU-Speicher und einer aggregierten Speicherbandbreite von 38 Terabyte pro Sekunde (TB/s). Dies kombiniert mit 32 PetaFLOPS Leistung schafft eine beschleunigte leistungsstarke Scale-up-Serverplattform für KI und Hochleistungs-Computing (HPC).

Sowohl HGX™ H200 als auch HGX™ H100 beinhalten Netzwerklösungen mit Geschwindigkeiten von bis zu 400 Gigabit pro Sekunde (Gb/s) und nutzen NVIDIA Quantum-2 InfiniBand und Spectrum™-X Ethernet für optimierte KI-Leistung. HGX™ H200 und HGX™ H100 beinhalten auch NVIDIA® BlueField®-3 Data Processing Units (DPUs), um Cloud-Netzwerke, zusammensetzbaren Speicher, Zero-Trust-Sicherheit und GPU-Compute-Elastizität in hyperskalierbaren KI-Clouds zu ermöglichen.

1.1 TB aggregierter HBM3e-Speicher sorgen für außerordentliche Beschleunigung von HPC- und Inferenzworkloads.

Bis zu 8 H200 SXM GPUs können in einem HGX™ System verbaut werden, und stellen in Kombination mit zwei leistungsstarken AMD / Intel Server Prozessoren eine enorme Rechenleistung für eine große Bandbreite an möglichen Workloads zur Verfügung.

H200 NVL Datenblatt Beratung anfordern


Deep Learning Inferenz: Leistung und Vielseitigkeit

KI löst eine Vielzahl von geschäftlichen Herausforderungen mit ebenso vielfältigen neuronalen Netzwerken. Ein KI-Inferenz-Beschleuniger muss nicht nur hohe Leistung erbringen, sondern auch die Vielseitigkeit bieten, die erforderlich ist, um diese Netzwerke an jedem Ort zu beschleunigen, an dem Kunden sie einsetzen möchten – vom Rechenzentrum bis hin zum Edge.

HGX™ H200 und HGX™ H100 erweitern NVIDIAs Martkplatzierung im Bereich Inferenz.


Vergleich der LLM-Inferenz-Leistung zwischen NVIDIA H100 und H200 GPU
Vorläufige Spezifikationen. Änderungen vorbehalten.
Llama2 13B: ISL 128, OSL 2K | Durchsatz | H100 SXM 1x GPU BS 64 | H200 SXM 1x GPU BS 128
GPT-3 175B: ISL 80, OSL 200 | x8 H100 SXM GPU BS 64 | x8 H200 SXM GPU BS 128
Llama2 70B: ISL 2K, OSL 128 | Durchsatz | H100 SXM 1x GPU BS 8 | H200 SXM 1x GPU BS 32

Deep Learning Training: Leistung und Skalierbarkeit

NVIDIA H200 und H100 GPUs verfügen über die Transformer Engine mit FP8-Präzision, die bis zu 5-mal schnelleres Training für große Sprachmodelle im Vergleich zur vorherigen GPU-Generation bietet. Die Kombination aus der vierten Generation von NVLink – die 900 GB/s GPU-zu-GPU-Verbindung bietet – PCIe Gen5 und der NVIDIA Magnum IO™-Software ermöglicht eine effiziente Skalierbarkeit, von kleinen Unternehmen bis hin zu riesigen, einheitlichen GPU-Clustern. Diese Infrastrukturfortschritte, die in enger Zusammenarbeit mit der NVIDIA AI Enterprise-Software-Suite arbeiten, machen HGX™ H200 und HGX™ H100 zu einer leistungsstarken KI-Computing-Plattform.


Prognose der HGX Beschleunigung für Trainings
Prognostizierte Leistung. Änderungen vorbehalten.
GPT-3 175B Training NVIDIA A100 Tensor Core GPU Cluster: NVIDIA Quantum InfiniBand Netzwerk, H100 Cluster: NVIDIA Quantum-2 InfiniBand Netzwerk

Beschleunigen Sie Ihre HPC-Performance

Die Speicherbandbreite ist entscheidend für Hochleistungsrechenanwendungen, da sie schnellere Datenübertragungen ermöglicht und komplexe Verarbeitungsengpässe reduziert. Bei speicherintensiven HPC-Anwendungen wie Simulationen, wissenschaftlicher Forschung und künstlicher Intelligenz sorgt die höhere Speicherbandbreite der H200 dafür, dass Daten effizient abgerufen und verarbeitet werden können. Dies führt zu einer bis zu 110-mal schnelleren Zeit bis zu den Ergebnissen im Vergleich zu CPUs.


Vergleichsgrafik für MILC und HPC Performance
Prognostizierte Leistung. Änderungen vorbehalten.
HPC MILC Datensatz NERSC Apex Medium | HGX™ H200 4-GPU | Dual Sapphire Rapids 8480
HPC Apps- CP2K: Datensatz H2O-32-RI-dRPA-96points | GROMACS: Datensatz STMV | ICON: Datensatz r2b5
MILC: Datensatz NERSC Apex Medium | Chroma: Datensatz HMC Medium | Quantum Espresso: Datensatz AUSURF112 | 1x H100 | 1x H200.

Beschleunigung von HGX™ mit NVIDIA Networking

Das Rechenzentrum ist die neue Recheneinheit, und Netzwerke spielen eine integrale Rolle bei der Skalierung der Anwendungsleistung. In Kombination mit NVIDIA Quantum InfiniBand liefert HGX™ herausragende Leistung und Effizienz, was die volle Nutzung der Rechenressourcen sicherstellt.

Für KI-Cloud-Rechenzentren, die Ethernet einsetzen, wird HGX™ am besten mit der NVIDIA Spectrum-X Netzwerkplattform verwendet, die hohe KI-Leistung über Ethernet ermöglicht. Sie verfügt über Spectrum-X-Switches und BlueField-3 DPUs für optimale Ressourcennutzung und Leistungsisolation und liefert konsistente, vorhersehbare Ergebnisse für Tausende von gleichzeitigen KI-Aufgaben in jeder Größenordnung. Spectrum-X ermöglicht fortschrittliche Cloud-Mandantenfähigkeit und Zero-Trust-Sicherheit. Als Referenzdesign hat NVIDIA Israel-1 entwickelt, einen generativen Hyper-Scale KI-Supercomputer, der mit Dell PowerEdge XE9680 Servern auf Basis der NVIDIA HGX™ 8-GPU-Plattform, BlueField-3 DPUs und Spectrum-4 Switches gebaut wurde.


Technische Spezifikationen

ModellHGX H200 4-GPUHGX H200 8-GPUHGX H100 4-GPUHGX H100 8-GPU
Formfaktor4x NVIDIA H200 SXM8x NVIDIA H200 SXM4x NVIDIA H100 SXM8x NVIDIA H100 SXM
FP8 Tensor Core16 PFLOPS32 PFLOPS16 PFLOPS32 PFLOPS
INT8 Tensor Core16 POPS32 POPS16 POPS32 POPS
FP16/BFLOAT16 Tensor Core8 PFLOPS16 PFLOPS8 PFLOPS16 PFLOPS
TF32 Tensor Core4 PFLOPS8 PFLOPS4 PFLOPS8 PFLOPS
FP32270 TFLOPS540 TFLOPS270 TFLOPS540 TFLOPS
FP64140 TFLOPS270 TFLOPS140 TFLOPS270 TFLOPS
FP64 Tensor Core270 TFLOPS540 TFLOPS270 TFLOPS540 TFLOPS
Speicher564GB HBM3e1.1TB HBM3e320GB HBM3640GB HBM3
GPU Bandbreite (Verbund)19 GB/s38 GB/s13 GB/s27 GB/s
NVLinkVierte GenerationVierte GenerationVierte GenerationVierte Generation
NVSwitchN/ADritte GenerationN/ADritte Generation
NVSwitch GPU-to-GPU BandbreiteN/A900 GB/sN/A900 GB/s
Gesamte aggregierte Bandbreite3.6 TB/s7.2 TB/s3.6 TB/s7.2 TB/s

Jetzt Kontakt aufnehmen und von unseren GPU Server Experten beraten lassen

Enver Coban
PLZ Bereich 2, 3

0049 5731 8694-352
vertrieb@primeline.org
Daniel Poertner
PLZ Bereich 1, 0

0049 5731 8694-432
vertrieb@primeline.org
Petar Crnkovic
PLZ Bereich 7, 8

0049 5731 8694-358
vertrieb@primeline.org
Jörg Engels
PLZ Bereich 4, 5

0049 5731 8694-356
vertrieb@primeline.org
Torsten Wetzel
PLZ Bereich 6, 9

0049 5731 8694-422
vertrieb@primeline.org
Alek Körtner
PLZ Bereich 2, 3

0049 5731 8694-412
vertrieb@primeline.org
Sie möchten gerne persönlich beraten werden oder haben noch Fragen? Wir beraten Sie gerne!Wählen Sie Ihren PLZ Bereich: 0 1 2 3 4 5 6 7 8 9
Sie sind Wiederverkäufer, öffentliche Einrichtung oder betreiben ein Rechenzentrum? Jetzt registrieren für Ihre Konditionen!