Verfügbarkeit:
Die Lieferzeit für dieses Produkt beträgt ca. 60 Werktage ab Bestelleingang.
Für einen verbindlichen Liefertermin wenden Sie sich bitte direkt an unseren Vertrieb.
Weitere Informationen zu Versand und Zahlung
ASUS ExpertCenter Pro ET900N G3
ASUS ExpertCenter Pro ET900N G3
Auf Basis der NVIDIA DGX™ Station
Der ASUS ExpertCenter Pro ET900N G3 gehört zu einer neuen Klasse von KI-Supercomputern für den Schreibtisch. Dieses revolutionäre System wurde von Grund auf für die Entwicklung und Ausführung von KI konzipiert und nutzt den NVIDIA® GB300 Grace Blackwell Ultra Desktop Superchip sowie bis zu beeindruckende 775 GB großen, kohärenten Arbeitsspeicher. Das Desktop-System ist in der Lage, umfangreiche KI-Trainings- und Inferenz-Workloads zu entwickeln und auszuführen, und setzt dabei auf den NVIDIA® AI Software Stack, um KI-Entwicklungsteams eine bislang unerreichte Rechenleistung direkt am Arbeitsplatz bereitzustellen.
Highlights
- NVIDIA Grace Blackwell Ultra Desktop Superchip: Ausgestattet mit einer NVIDIA Blackwell Ultra GPU mit CUDA®-Kernen der neuesten Generation sowie Tensor Cores der fünften Generation, die über die NVIDIA® NVLink®-C2C-Interconnect-Technologie mit einer leistungsstarken NVIDIA Grace CPU verbunden ist und damit erstklassige Systemkommunikation und Performance bietet.
- 5. Gen Tensor Cores: Angetrieben von Tensor Cores der neuesten NVIDIA-Blackwell-Generation, die 4-Bit-Gleitkomma-KI (FP4) ermöglichen. FP4 steigert die Performance und die von Speicher unterstützbare Modellgröße der nächsten KI-Generation, während gleichzeitig eine hohe Genauigkeit erhalten bleibt.
- NVIDIA ConnectX-8 SuperNIC: Die NVIDIA ConnectX®-8 SuperNIC ist darauf optimiert, hyperskalierte KI-Computing-Workloads massiv zu beschleunigen. Mit einer Bandbreite von bis zu 800 Gigabit pro Sekunde (Gb/s) bietet die NVIDIA ConnectX®-8 SuperNIC eine extrem schnelle und effiziente Netzwerkverbindung und steigert damit die Systemleistung für KI-Fabriken erheblich.
- NVIDIA DGX OS: NVIDIA DGX OS stellt stabile, vollständig validierte Betriebssysteme für den Betrieb von KI-, Machine-Learning- und Analytics-Anwendungen auf der NVIDIA DGX-Plattform bereit. Es umfasst systemspezifische Konfigurationen, Treiber sowie Diagnose- und Überwachungstools. Lösungen lassen sich problemlos über mehrere NVIDIA DGX Station-Systeme, NVIDIA DGX Cloud oder andere beschleunigte Rechenzentrums- bzw. Cloud-Infrastrukturen hinweg skalieren.
- NVIDIA NVLink-C2C Interconnect: NVIDIA NVLink-C2C erweitert die branchenführende NVLink-Technologie zu einer Chip-zu-Chip-Verbindung zwischen GPU und CPU und ermöglicht kohärente Datenübertragungen mit hoher Bandbreite zwischen Prozessoren und Beschleunigern.
- Großer, kohärenter Speicher für KI: KI-Modelle wachsen kontinuierlich in Umfang und Komplexität. Das Trainieren und Ausführen dieser Modelle innerhalb des großen kohärenten Speichers von NVIDIA Grace Blackwell Ultra ermöglicht es, Modelle im Massivmaßstab effizient in einem gemeinsamen Speicherpool zu trainieren und zu betreiben. Möglich wird dies durch die C2C-Superchip-Interconnect-Technologie, die die Engpässe herkömmlicher CPU- und GPU-Systeme umgeht.
- NVIDIA AI Software Stack: Eine Full-Stack-Lösung für KI-Workloads einschließlich Fine-Tuning, Inferenz und Data Science. Der NVIDIA AI Software Stack ermöglicht es, lokal zu arbeiten und Anwendungen nahtlos in die Cloud oder ins Rechenzentrum zu deployen, wobei dieselben Tools, Bibliotheken, Frameworks und vortrainierten Modelle vom Desktop bis zur Cloud verwendet werden.
- Workload-optimierte Leistungsverteilung: NVIDIA DGX Stations nutzen KI-basierte Systemoptimierungen, die die Leistungsaufnahme intelligent an die jeweils aktive Arbeitslast anpassen und so kontinuierlich maximale Performance und Effizienz gewährleisten.
- NVIDIA Multi-Instance GPU (MIG): Die DGX Station unterstützt die NVIDIA Multi-Instance GPU (MIG) Technologie, mit der sich die GPU in bis zu sieben Instanzen für die lokale Entwicklung mit mehreren Nutzern partitionieren lässt. Jede Instanz ist vollständig isoliert und verfügt über eigenen High-Bandwidth-Speicher, Cache und Rechenkerne.
Technische Spezifikationen
- GPU: NVIDIA Blackwell Ultra
- CPU: Grace-72 Core Neoverse V2
- GPU-Speicher: 279 GB HBM3e | 8.0 TB/s
- CPU-Speicher: 496 GB LPDDR5X | 396 GB/s
- NVLink C2C: 900 GB/s
- Netzwerk | max. Bandbreite: NVIDIA ConnectX®-8 SuperNIC | Bis zu 800 GB/s
- Betriebssystem: NVIDIA DGX OS
- NVIDIA Multi-Instance-GPU (MIG): 7
- max. Leistungsaufnahme: 1600 Watt
- Dekoder: 7x NVDEC | 7x nvJPEG
- Storage: 4x M.2 Steckplätze (PCIe 5.0)
- Ethernet: 2x QSFP112, 1x RJ-45 10G, 1x RJ-45 BMC
- PCIe-Slots: 1x PCIe 5.0 x16, 2x PCIe 5.0 x16 (x8)
Allgemein | |
|---|---|
| Hersteller | Asus |
| Hersteller Artikelnummer | Pro ET900N G3 |
| Hersteller Garantie (Monate) | 36 Mon. Hersteller Garantie |
| Verpackung | retail |
Server Eckdaten | |
| Server Ausführung | ASUS ExpertCenter Pro ET900N G3 |
| Server Netzteil | Proprietäres Netzteil |
| Chipsatz | Grace-72 Core Neoverse V2 |
| Prozessor(en) | 72 Core Neoverse V2 |
| Server Arbeitsspeicher | 496 GB LPDDR5x + 288 GB HMB3e |
| Netzwerkanbindung | 2x QSFP112, 1x RJ-45 10G |
| Erweiterungskarten Steckplätze | 1x PCIe 5.0 x16, 2x PCIe 5.0 x16 (x8) |
| Laufwerke | bis zu 4x M.2 PCIe 5.0 SSD |
| M.2 / U.2 / Mini PCIe | NVIDIA DGX™ Station |
| Betriebssystem | NVIDIA DGX™ OS |
| Server Garantie | Dekoder: 7x NVDEC | 7x nvJPEG |
| Erweiterte Server Garantie | 1600 Watt |
Kontaktieren Sie uns gern jederzeit.











