Artikelnummer: 130864

ASUS ExpertCenter Pro ET900N G3

  • ASUS ExpertCenter Pro ET900N G3
  • Proprietäres Netzteil
  • Grace-72 Core Neoverse V2
  • 72 Core Neoverse V2
  • 496 GB LPDDR5x + 288 GB HMB3e
  • 2x QSFP112, 1x RJ-45 10G
  • 1x PCIe 5.0 x16, 2x PCIe 5.0 x16 (x8)
  • bis zu 4x M.2 PCIe 5.0 SSD
  • NVIDIA DGX™ Station
  • Dekoder: 7x NVDEC | 7x nvJPEG
  • 1600 Watt
Artikelbeschreibung anzeigen
Preis auf Anfrage
Preis anfragen
Auf die Vergleichsliste

Verfügbarkeit:

Die Lieferzeit für dieses Produkt beträgt ca. 60 Werktage ab Bestelleingang.

Für einen verbindlichen Liefertermin wenden Sie sich bitte direkt an unseren Vertrieb.

Weitere Informationen zu Versand und Zahlung

ASUS ExpertCenter Pro ET900N G3

ASUS ExpertCenter Pro ET900N G3

Auf Basis der NVIDIA DGX™ Station

Der ASUS ExpertCenter Pro ET900N G3 gehört zu einer neuen Klasse von KI-Supercomputern für den Schreibtisch. Dieses revolutionäre System wurde von Grund auf für die Entwicklung und Ausführung von KI konzipiert und nutzt den NVIDIA® GB300 Grace Blackwell Ultra Desktop Superchip sowie bis zu beeindruckende 775 GB großen, kohärenten Arbeitsspeicher. Das Desktop-System ist in der Lage, umfangreiche KI-Trainings- und Inferenz-Workloads zu entwickeln und auszuführen, und setzt dabei auf den NVIDIA® AI Software Stack, um KI-Entwicklungsteams eine bislang unerreichte Rechenleistung direkt am Arbeitsplatz bereitzustellen.

Highlights

  • NVIDIA Grace Blackwell Ultra Desktop Superchip: Ausgestattet mit einer NVIDIA Blackwell Ultra GPU mit CUDA®-Kernen der neuesten Generation sowie Tensor Cores der fünften Generation, die über die NVIDIA® NVLink®-C2C-Interconnect-Technologie mit einer leistungsstarken NVIDIA Grace CPU verbunden ist und damit erstklassige Systemkommunikation und Performance bietet.
  • 5. Gen Tensor Cores: Angetrieben von Tensor Cores der neuesten NVIDIA-Blackwell-Generation, die 4-Bit-Gleitkomma-KI (FP4) ermöglichen. FP4 steigert die Performance und die von Speicher unterstützbare Modellgröße der nächsten KI-Generation, während gleichzeitig eine hohe Genauigkeit erhalten bleibt.
  • NVIDIA ConnectX-8 SuperNIC: Die NVIDIA ConnectX®-8 SuperNIC ist darauf optimiert, hyperskalierte KI-Computing-Workloads massiv zu beschleunigen. Mit einer Bandbreite von bis zu 800 Gigabit pro Sekunde (Gb/s) bietet die NVIDIA ConnectX®-8 SuperNIC eine extrem schnelle und effiziente Netzwerkverbindung und steigert damit die Systemleistung für KI-Fabriken erheblich.
  • NVIDIA DGX OS: NVIDIA DGX OS stellt stabile, vollständig validierte Betriebssysteme für den Betrieb von KI-, Machine-Learning- und Analytics-Anwendungen auf der NVIDIA DGX-Plattform bereit. Es umfasst systemspezifische Konfigurationen, Treiber sowie Diagnose- und Überwachungstools. Lösungen lassen sich problemlos über mehrere NVIDIA DGX Station-Systeme, NVIDIA DGX Cloud oder andere beschleunigte Rechenzentrums- bzw. Cloud-Infrastrukturen hinweg skalieren.
  • NVIDIA NVLink-C2C Interconnect: NVIDIA NVLink-C2C erweitert die branchenführende NVLink-Technologie zu einer Chip-zu-Chip-Verbindung zwischen GPU und CPU und ermöglicht kohärente Datenübertragungen mit hoher Bandbreite zwischen Prozessoren und Beschleunigern.
  • Großer, kohärenter Speicher für KI: KI-Modelle wachsen kontinuierlich in Umfang und Komplexität. Das Trainieren und Ausführen dieser Modelle innerhalb des großen kohärenten Speichers von NVIDIA Grace Blackwell Ultra ermöglicht es, Modelle im Massivmaßstab effizient in einem gemeinsamen Speicherpool zu trainieren und zu betreiben. Möglich wird dies durch die C2C-Superchip-Interconnect-Technologie, die die Engpässe herkömmlicher CPU- und GPU-Systeme umgeht.
  • NVIDIA AI Software Stack: Eine Full-Stack-Lösung für KI-Workloads einschließlich Fine-Tuning, Inferenz und Data Science. Der NVIDIA AI Software Stack ermöglicht es, lokal zu arbeiten und Anwendungen nahtlos in die Cloud oder ins Rechenzentrum zu deployen, wobei dieselben Tools, Bibliotheken, Frameworks und vortrainierten Modelle vom Desktop bis zur Cloud verwendet werden.
  • Workload-optimierte Leistungsverteilung: NVIDIA DGX Stations nutzen KI-basierte Systemoptimierungen, die die Leistungsaufnahme intelligent an die jeweils aktive Arbeitslast anpassen und so kontinuierlich maximale Performance und Effizienz gewährleisten.
  • NVIDIA Multi-Instance GPU (MIG): Die DGX Station unterstützt die NVIDIA Multi-Instance GPU (MIG) Technologie, mit der sich die GPU in bis zu sieben Instanzen für die lokale Entwicklung mit mehreren Nutzern partitionieren lässt. Jede Instanz ist vollständig isoliert und verfügt über eigenen High-Bandwidth-Speicher, Cache und Rechenkerne.

Technische Spezifikationen

  • GPU: NVIDIA Blackwell Ultra
  • CPU: Grace-72 Core Neoverse V2
  • GPU-Speicher: 279 GB HBM3e | 8.0 TB/s
  • CPU-Speicher: 496 GB LPDDR5X | 396 GB/s
  • NVLink C2C: 900 GB/s
  • Netzwerk | max. Bandbreite: NVIDIA ConnectX®-8 SuperNIC | Bis zu 800 GB/s
  • Betriebssystem: NVIDIA DGX OS
  • NVIDIA Multi-Instance-GPU (MIG): 7
  • max. Leistungsaufnahme: 1600 Watt
  • Dekoder: 7x NVDEC | 7x nvJPEG
  • Storage: 4x M.2 Steckplätze (PCIe 5.0)
  • Ethernet: 2x QSFP112, 1x RJ-45 10G, 1x RJ-45 BMC
  • PCIe-Slots: 1x PCIe 5.0 x16, 2x PCIe 5.0 x16 (x8)

Allgemein

HerstellerAsus
Hersteller ArtikelnummerPro ET900N G3
Hersteller Garantie (Monate)36 Mon. Hersteller Garantie
Verpackungretail

Server Eckdaten

Server AusführungASUS ExpertCenter Pro ET900N G3
Server NetzteilProprietäres Netzteil
ChipsatzGrace-72 Core Neoverse V2
Prozessor(en)72 Core Neoverse V2
Server Arbeitsspeicher496 GB LPDDR5x + 288 GB HMB3e
Netzwerkanbindung2x QSFP112, 1x RJ-45 10G
Erweiterungskarten Steckplätze1x PCIe 5.0 x16, 2x PCIe 5.0 x16 (x8)
Laufwerkebis zu 4x M.2 PCIe 5.0 SSD
M.2 / U.2 / Mini PCIeNVIDIA DGX™ Station
BetriebssystemNVIDIA DGX™ OS
Server GarantieDekoder: 7x NVDEC | 7x nvJPEG
Erweiterte Server Garantie1600 Watt
Haben Sie Fragen?

Kontaktieren Sie uns gern jederzeit.