ASUS HGX™ Supercomputing

8x NVIDIA H200 / H100 GPUs für außerordentliche Performance

In 7 Höheneinheiten bietet ASUS hochperformante KI-Computing-Lösungen. Die ASUS Komplettsysteme ESC N8A-E12 (AMD) und ESC N8-E11 (Intel) wurden entworfen, um große KI-Trainingsmodelle und HPC-Workloads zu bewältigen. Um die Betriebskosten zu senken, vereint ASUS innovative Komponenten mit effektiver Kühlung, um thermische Effizienz und Skalierbarkeit zu gewährleisten - bei kompromissloser Performance.

Technische Highlights der ASUS HGX™-Lösungen

  • NVIDIA HGX™ H200 / H100 8-fach GPU mit bis zu 141 GB HBM3e-Speicher pro GPU
  • GPU-GPU-Interconnect: 900 GB/s Datenübertragung via NVLink / NVSwitch
  • Dual-CPU der 5th Gen Intel Xeon Scalable oder AMD EPYC 9004-Serien
  • Bis zu 2.0 Terabyte DDR5-5600 Arbeitsspeicher
  • High-Performance Networking mit 2x NVIDIA ConnectX-6 100 Gbit NICs

primeLine unterstützt Sie als erfahrener Dienstleister bei der Bereitstellung und Implementierung dieser erstklassigen ASUS-Lösungen. Unser Team berät Sie gerne und sorgt für eine reibungslose Integration der ASUS- und NVIDIA-Technologien in Ihre Rechenzentrumsinfrastruktur, damit Sie die volle Leistung und Effizienz für Ihre KI- und HPC-Anwendungen erreichen.

Mehr zu den ASUS HGX™-Lösungen Beratung anfordern
Supermicro HGX H200 GPU Superserver

Kategorien

Sortieren nach:

ASUS GPU Server HGX H200 ESC N8-E11V

  • 7 HE Rack Server Gehäuse
  • 2x Intel Xeon 8462Y+ CPU
  • 8x NVIDIA HGX H200 GPU
  • 2.0 TB DDR5-5600 RAM
  • 5x 1.92 TB U.3 NVMe (9.6 TB)
  • 8x NVIDIA ConnectX-7 400 Gb/s
Hst-Nr: ESC N8-E11V
Preis auf Anfrage
Preis anfragen Details Auf die Vergleichsliste

ASUS GPU Server HGX H100 ESC N8A-E12

  • 7 HE Rack Server Gehäuse
  • 2x AMD EPYC 9554 CPU
  • 8x NVIDIA HGX H100 GPU
  • 1.5 TB DDR5-4800 RAM
  • 10x 2.5" Festplatteneinschübe
  • 2x NVIDIA ConnectX-6 100 Gb/s
Hst-Nr: ESC N8A-E12
Preis auf Anfrage
Preis anfragen Details Auf die Vergleichsliste

ASUS GPU Server HGX H100 ESC N8-E11

  • 7 HE Rack Server Gehäuse
  • 2x Intel Xeon 8480+ CPU
  • 8x NVIDIA HGX H100 GPU
  • 2.0 TB DDR5-4800 RAM
  • 10x 2.5" Festplatteneinschübe
  • 1x 512 GB Samsung PM9A1 M.2 NVMe SSD
Hst-Nr: ESC N8-E11
Preis auf Anfrage
Preis anfragen Details Auf die Vergleichsliste
Zeige:


ASUS KI Supercomputing Plattform

Die ASUS HGX™ GPU-Server ESC N8A-E12 und ESC N8-E11 sind hochleistungsfähige 7U-Rackmount-Systeme, die speziell für anspruchsvolle Aufgaben in den Bereichen der künstlichen Intelligenz und Hochleistungsrechnen (HPC) entwickelt wurden. Beide Systeme sind mit der NVIDIA HGX™ H100 Plattform ausgestattet, die acht leistungsstarke Tensor Core GPUs enthält, um die Verarbeitung großer Datenmengen und die Schulung umfangreicher KI-Modelle zu beschleunigen.

Der ESC N8A-E12 setzt auf die AMD EPYC 9004-Serie und unterstützt bis zu 6.0 TB DDR5 Arbeitsspeicher, was ihn ideal für speicherintensive Anwendungen macht. Die besondere 1-zu-1-GPU-zu-NIC-Topologie ermöglicht eine außergewöhnlich hohe Datenübertragungsrate, während das modulare Design und die fortschrittlichen NVIDIA-Technologien, wie NVLink und NVSwitch, eine effiziente Skalierung und thermische Optimierung sicherstellen.

Im Gegensatz dazu nutzt der ESC N8-E11 die 5. Generation der Intel Xeon Scalable Prozessoren und bietet ähnliche High-End-Funktionen, darunter bis zu 8.0 TB DDR5 Arbeitsspeicher sowie die dedizierte GPU-zu-NIC-Topologie und optimierte Luftkühlung mit separaten Luftstromtunneln für CPUs und GPUs. Beide Systeme bieten redundante 3000 Watt 80 PLUS Titanium-Netzteile und sind für den Einsatz in energieeffizienten Rechenzentren optimiert.

Diese Systeme sind speziell darauf ausgelegt, den Anforderungen moderner KI-Infrastrukturen gerecht zu werden und bieten skalierbare, leistungsstarke Lösungen für Unternehmen, die nach hoher Effizienz und Leistung suchen.


ASUS HGX H200 ESC N8A-E12 GPU Server

ASUS ESC N8A-E12

Leistungsstarker GPU-Server auf AMD-Basis

Anwendungsbereiche

  • High Performance Computing
  • Künstliche Intelligenz und Machine Learning
  • Datenbank- und speicherintensive Anwendungen
  • Virtualisierung und Cloud-Infrastrukturen

Technische Highlights des ASUS ESC N8A-E12

  • Dual AMD EPYC 9554 Prozessoren (2x 64 Cores / 128 Threads)
  • 1.5 Terabyte DDR5 Arbeitsspeicher in 24 DIMM Slots
  • 10x 2.5" NVMe Hot-Swap Laufwerkeinschübe
  • 2x M.2 PCIe 5.0 x4 Steckplätze
  • Unterstützung für 8 GPUs und 8 Netzwerkkarten

ASUS ESC N8-E11

Leistungsstarker GPU-Server auf Intel-Basis

Anwendungsbereiche

  • Edge Computing
  • Content Delivery Networks (CDN)
  • Telekommunikationsinfrastruktur
  • Enterprise Resource Planning (ERP)

Technische Highlights des ASUS ESC N8-E11

  • Dual Intel Xeon Scalable Platinum 8480+ Prozessoren (2x 56 Cores / 112 Threads)
  • 2.0 Terabyte DDR5 Arbeitsspeicher in 32 DIMM Slots
  • 10x 2.5" NVMe Hot-Swap Laufwerkeinschübe
  • 2x M.2 PCIe 5.0 x4 Steckplätze
  • Unterstützung für 8 GPUs und 8 Netzwerkkarten
ASUS HGX H200 ESC N8-E11 GPU Server

End-to-End beschleunigte Computing-Plattform

Das NVIDIA HGX™ H200 kombiniert H200 Tensor Core GPUs mit Hochgeschwindigkeitsverbindungen, um die hochoptimierte und performante Server zu bilden. Konfigurationen von bis zu acht GPUs bieten eine Beschleunigung mit bis zu 1.1 Terabyte (TB) GPU-Speicher und einer aggregierten Speicherbandbreite von 38 Terabyte pro Sekunde (TB/s). Dies kombiniert mit 32 PetaFLOPS Leistung schafft eine beschleunigte leistungsstarke Scale-up-Serverplattform für KI und Hochleistungs-Computing (HPC).

Sowohl HGX™ H200 als auch HGX™ H100 beinhalten Netzwerklösungen mit Geschwindigkeiten von bis zu 400 Gigabit pro Sekunde (Gb/s) und nutzen NVIDIA Quantum-2 InfiniBand und Spectrum™-X Ethernet für optimierte KI-Leistung. HGX™ H200 und HGX™ H100 beinhalten auch NVIDIA® BlueField®-3 Data Processing Units (DPUs), um Cloud-Netzwerke, zusammensetzbaren Speicher, Zero-Trust-Sicherheit und GPU-Compute-Elastizität in hyperskalierbaren KI-Clouds zu ermöglichen.

1.1 TB aggregierter HBM3e-Speicher sorgen für außerordentliche Beschleunigung von HPC- und Inferenzworkloads.

Bis zu 8 H200 SXM GPUs können in einem HGX™ System verbaut werden, und stellen in Kombination mit zwei leistungsstarken AMD / Intel Server Prozessoren eine enorme Rechenleistung für eine große Bandbreite an möglichen Workloads zur Verfügung.

H200 NVL Datenblatt Beratung anfordern
NVIDIA HGX H200 Ansicht von oben

Beschleunigung von HGX™ mit NVIDIA Networking

Das Rechenzentrum ist die neue Recheneinheit, und Netzwerke spielen eine integrale Rolle bei der Skalierung der Anwendungsleistung. In Kombination mit NVIDIA Quantum InfiniBand liefert HGX™ herausragende Leistung und Effizienz, was die volle Nutzung der Rechenressourcen sicherstellt.

Für KI-Cloud-Rechenzentren, die Ethernet einsetzen, wird HGX™ am besten mit der NVIDIA Spectrum-X Netzwerkplattform verwendet, die hohe KI-Leistung über Ethernet ermöglicht. Sie verfügt über Spectrum-X-Switches und BlueField-3 DPUs für optimale Ressourcennutzung und Leistungsisolation und liefert konsistente, vorhersehbare Ergebnisse für Tausende von gleichzeitigen KI-Aufgaben in jeder Größenordnung. Spectrum-X ermöglicht fortschrittliche Cloud-Mandantenfähigkeit und Zero-Trust-Sicherheit. Als Referenzdesign hat NVIDIA Israel-1 entwickelt, einen generativen Hyper-Scale KI-Supercomputer, der mit Dell PowerEdge XE9680 Servern auf Basis der NVIDIA HGX™ 8-GPU-Plattform, BlueField-3 DPUs und Spectrum-4 Switches gebaut wurde.


ModellHGX H200 4-GPUHGX H200 8-GPUHGX H100 4-GPUHGX H100 8-GPU
Formfaktor4x NVIDIA H200 SXM8x NVIDIA H200 SXM4x NVIDIA H100 SXM8x NVIDIA H100 SXM
FP8 Tensor Core16 PFLOPS32 PFLOPS16 PFLOPS32 PFLOPS
INT8 Tensor Core16 POPS32 POPS16 POPS32 POPS
FP16/BFLOAT16 Tensor Core8 PFLOPS16 PFLOPS8 PFLOPS16 PFLOPS
TF32 Tensor Core4 PFLOPS8 PFLOPS4 PFLOPS8 PFLOPS
FP32270 TFLOPS540 TFLOPS270 TFLOPS540 TFLOPS
FP64140 TFLOPS270 TFLOPS140 TFLOPS270 TFLOPS
FP64 Tensor Core270 TFLOPS540 TFLOPS270 TFLOPS540 TFLOPS
Speicher564GB HBM3e1.1TB HBM3e320GB HBM3640GB HBM3
GPU Bandbreite (Verbund)19 GB/s38 GB/s13 GB/s27 GB/s
NVLinkVierte GenerationVierte GenerationVierte GenerationVierte Generation
NVSwitchN/ADritte GenerationN/ADritte Generation
NVSwitch GPU-to-GPU BandbreiteN/A900 GB/sN/A900 GB/s
Gesamte aggregierte Bandbreite3.6 TB/s7.2 TB/s3.6 TB/s7.2 TB/s

Jetzt Kontakt aufnehmen und von unseren GPU Server Experten beraten lassen

Haben Sie Fragen?

Kontaktieren Sie uns gern jederzeit.