ASUS HGX™ Supercomputing
8x NVIDIA H200 / H100 GPUs für außerordentliche Performance
In 7 Höheneinheiten bietet ASUS hochperformante KI-Computing-Lösungen. Die ASUS Komplettsysteme ESC N8A-E12 (AMD) und ESC N8-E11 (Intel) wurden entworfen, um große KI-Trainingsmodelle und HPC-Workloads zu bewältigen. Um die Betriebskosten zu senken, vereint ASUS innovative Komponenten mit effektiver Kühlung, um thermische Effizienz und Skalierbarkeit zu gewährleisten - bei kompromissloser Performance.
Technische Highlights der ASUS HGX™-Lösungen
primeLine unterstützt Sie als erfahrener Dienstleister bei der Bereitstellung und Implementierung dieser erstklassigen ASUS-Lösungen. Unser Team berät Sie gerne und sorgt für eine reibungslose Integration der ASUS- und NVIDIA-Technologien in Ihre Rechenzentrumsinfrastruktur, damit Sie die volle Leistung und Effizienz für Ihre KI- und HPC-Anwendungen erreichen.
Mehr zu den ASUS HGX™-Lösungen Beratung anfordernKategorien
Sortieren nach:
ASUS GPU Server HGX H200 ESC N8-E11V
- 7 HE Rack Server Gehäuse
- 2x Intel Xeon 8462Y+ CPU
- 8x NVIDIA HGX H200 GPU
- 2.0 TB DDR5-5600 RAM
- 5x 1.92 TB U.3 NVMe (9.6 TB)
- 8x NVIDIA ConnectX-7 400 Gb/s
Preisanfrage
ASUS GPU Server HGX H100 ESC N8A-E12
- 7 HE Rack Server Gehäuse
- 2x AMD EPYC 9554 CPU
- 8x NVIDIA HGX H100 GPU
- 1.5 TB DDR5-4800 RAM
- 10x 2.5" Festplatteneinschübe
- 2x NVIDIA ConnectX-6 100 Gb/s
ASUS GPU Server HGX H100 ESC N8-E11
- 7 HE Rack Server Gehäuse
- 2x Intel Xeon 8480+ CPU
- 8x NVIDIA HGX H100 GPU
- 2.0 TB DDR5-4800 RAM
- 10x 2.5" Festplatteneinschübe
- 1x 512 GB Samsung PM9A1 M.2 NVMe SSD
ASUS KI Supercomputing Plattform
Die ASUS HGX™ GPU-Server ESC N8A-E12 und ESC N8-E11 sind hochleistungsfähige 7U-Rackmount-Systeme, die speziell für anspruchsvolle Aufgaben in den Bereichen der künstlichen Intelligenz und Hochleistungsrechnen (HPC) entwickelt wurden. Beide Systeme sind mit der NVIDIA HGX™ H100 Plattform ausgestattet, die acht leistungsstarke Tensor Core GPUs enthält, um die Verarbeitung großer Datenmengen und die Schulung umfangreicher KI-Modelle zu beschleunigen.
Der ESC N8A-E12 setzt auf die AMD EPYC 9004-Serie und unterstützt bis zu 6.0 TB DDR5 Arbeitsspeicher, was ihn ideal für speicherintensive Anwendungen macht. Die besondere 1-zu-1-GPU-zu-NIC-Topologie ermöglicht eine außergewöhnlich hohe Datenübertragungsrate, während das modulare Design und die fortschrittlichen NVIDIA-Technologien, wie NVLink und NVSwitch, eine effiziente Skalierung und thermische Optimierung sicherstellen.
Im Gegensatz dazu nutzt der ESC N8-E11 die 5. Generation der Intel Xeon Scalable Prozessoren und bietet ähnliche High-End-Funktionen, darunter bis zu 8.0 TB DDR5 Arbeitsspeicher sowie die dedizierte GPU-zu-NIC-Topologie und optimierte Luftkühlung mit separaten Luftstromtunneln für CPUs und GPUs. Beide Systeme bieten redundante 3000 Watt 80 PLUS Titanium-Netzteile und sind für den Einsatz in energieeffizienten Rechenzentren optimiert.
Diese Systeme sind speziell darauf ausgelegt, den Anforderungen moderner KI-Infrastrukturen gerecht zu werden und bieten skalierbare, leistungsstarke Lösungen für Unternehmen, die nach hoher Effizienz und Leistung suchen.
ASUS ESC N8A-E12
Leistungsstarker GPU-Server auf AMD-Basis
Anwendungsbereiche
Technische Highlights des ASUS ESC N8A-E12
ASUS ESC N8-E11
Leistungsstarker GPU-Server auf Intel-Basis
Anwendungsbereiche
Technische Highlights des ASUS ESC N8-E11
End-to-End beschleunigte Computing-Plattform
Das NVIDIA HGX™ H200 kombiniert H200 Tensor Core GPUs mit Hochgeschwindigkeitsverbindungen, um die hochoptimierte und performante Server zu bilden. Konfigurationen von bis zu acht GPUs bieten eine Beschleunigung mit bis zu 1.1 Terabyte (TB) GPU-Speicher und einer aggregierten Speicherbandbreite von 38 Terabyte pro Sekunde (TB/s). Dies kombiniert mit 32 PetaFLOPS Leistung schafft eine beschleunigte leistungsstarke Scale-up-Serverplattform für KI und Hochleistungs-Computing (HPC).
Sowohl HGX™ H200 als auch HGX™ H100 beinhalten Netzwerklösungen mit Geschwindigkeiten von bis zu 400 Gigabit pro Sekunde (Gb/s) und nutzen NVIDIA Quantum-2 InfiniBand und Spectrum™-X Ethernet für optimierte KI-Leistung. HGX™ H200 und HGX™ H100 beinhalten auch NVIDIA® BlueField®-3 Data Processing Units (DPUs), um Cloud-Netzwerke, zusammensetzbaren Speicher, Zero-Trust-Sicherheit und GPU-Compute-Elastizität in hyperskalierbaren KI-Clouds zu ermöglichen.
1.1 TB aggregierter HBM3e-Speicher sorgen für außerordentliche Beschleunigung von HPC- und Inferenzworkloads.
Bis zu 8 H200 SXM GPUs können in einem HGX™ System verbaut werden, und stellen in Kombination mit zwei leistungsstarken AMD / Intel Server Prozessoren eine enorme Rechenleistung für eine große Bandbreite an möglichen Workloads zur Verfügung.
H200 NVL Datenblatt Beratung anfordernBeschleunigung von HGX™ mit NVIDIA Networking
Das Rechenzentrum ist die neue Recheneinheit, und Netzwerke spielen eine integrale Rolle bei der Skalierung der Anwendungsleistung. In Kombination mit NVIDIA Quantum InfiniBand liefert HGX™ herausragende Leistung und Effizienz, was die volle Nutzung der Rechenressourcen sicherstellt.
Für KI-Cloud-Rechenzentren, die Ethernet einsetzen, wird HGX™ am besten mit der NVIDIA Spectrum-X Netzwerkplattform verwendet, die hohe KI-Leistung über Ethernet ermöglicht. Sie verfügt über Spectrum-X-Switches und BlueField-3 DPUs für optimale Ressourcennutzung und Leistungsisolation und liefert konsistente, vorhersehbare Ergebnisse für Tausende von gleichzeitigen KI-Aufgaben in jeder Größenordnung. Spectrum-X ermöglicht fortschrittliche Cloud-Mandantenfähigkeit und Zero-Trust-Sicherheit. Als Referenzdesign hat NVIDIA Israel-1 entwickelt, einen generativen Hyper-Scale KI-Supercomputer, der mit Dell PowerEdge XE9680 Servern auf Basis der NVIDIA HGX™ 8-GPU-Plattform, BlueField-3 DPUs und Spectrum-4 Switches gebaut wurde.
Modell | HGX H200 4-GPU | HGX H200 8-GPU | HGX H100 4-GPU | HGX H100 8-GPU |
---|---|---|---|---|
Formfaktor | 4x NVIDIA H200 SXM | 8x NVIDIA H200 SXM | 4x NVIDIA H100 SXM | 8x NVIDIA H100 SXM |
FP8 Tensor Core | 16 PFLOPS | 32 PFLOPS | 16 PFLOPS | 32 PFLOPS |
INT8 Tensor Core | 16 POPS | 32 POPS | 16 POPS | 32 POPS |
FP16/BFLOAT16 Tensor Core | 8 PFLOPS | 16 PFLOPS | 8 PFLOPS | 16 PFLOPS |
TF32 Tensor Core | 4 PFLOPS | 8 PFLOPS | 4 PFLOPS | 8 PFLOPS |
FP32 | 270 TFLOPS | 540 TFLOPS | 270 TFLOPS | 540 TFLOPS |
FP64 | 140 TFLOPS | 270 TFLOPS | 140 TFLOPS | 270 TFLOPS |
FP64 Tensor Core | 270 TFLOPS | 540 TFLOPS | 270 TFLOPS | 540 TFLOPS |
Speicher | 564GB HBM3e | 1.1TB HBM3e | 320GB HBM3 | 640GB HBM3 |
GPU Bandbreite (Verbund) | 19 GB/s | 38 GB/s | 13 GB/s | 27 GB/s |
NVLink | Vierte Generation | Vierte Generation | Vierte Generation | Vierte Generation |
NVSwitch | N/A | Dritte Generation | N/A | Dritte Generation |
NVSwitch GPU-to-GPU Bandbreite | N/A | 900 GB/s | N/A | 900 GB/s |
Gesamte aggregierte Bandbreite | 3.6 TB/s | 7.2 TB/s | 3.6 TB/s | 7.2 TB/s |