Home
  • + 30.000 verkaufte PC & Workstations
  • + 25.000 verkaufte Serversysteme
  • + 5.000 zufriedene Kunden
  • + 13 Jahre Erfahrung
  • + persönliche Beratung
Warenkorb:
0 Artikel - 0,00 €
Sie haben keine Artikel im Warenkorb.

0

Server mit NVIDIA H200 GPUs für KI- und HPC

Unvergleichliche Rechenleistung für generative KI, Simulationen und HPC-Workloads

Der Bedarf an Beschleunigung und Rechenleistung für generative KI, LLMs und HPC-Anwendungen erhöht die Ansprüche an die Hardware immens. Performance, Verfügbarkeit und Wirtschaftlichkeit stellen die wichtigsten Faktoren in der Auswahl der richtigen Hardware für die komplexesten Anwendungen dar. NVIDIA stellt sich der Herausforderung und bringt ihr neuestes GPU-Powerhouse auf den Markt - die NVIDIA H200 NVL GPU.

NVIDIA H200 – 141 Gigabyte HBM3e-Speicher und 4.8 TB/s Bandbreite

Die NVIDIA H200 NVL GPU ist die weltweit erste GPU mit 141 Gigabyte HBM3e-Speicher auf Basis der NVIDIA Hopper™-Architektur. Das bedeutet die nahezu doppelte Speicherkapazität des Vorgängers NVIDIA H100, gepaart mit der 1.4-fachen Speicherbandbreite von 4.8 Terabyte pro Sekunde. Der schnellere Speicher ermöglicht die Beschleunigung großer Sprachmodelle und die deutlich verbesserte Verarbeitung generativer KI-Prozesse. In Zahlen bedeutet das die doppelte Inferenzgeschwindigkeit bei der Verarbeitung von LLMs und eine bis zu 110-fach beschleunigte Ergebnisbereitstellung für Forschung, KI und Simulationen.

Als NVIDIA Elite Partner sind wir gerne Ihr Ansprechpartner, wenn es um leistungsstarke und hochverfügbare GPU Server Lösungen für Rechenzentren, Forschung und Industrie geht.

NVIDIA H200 NVL Details Beratung anfordern

4 Artikel

  • ASUS GPU Server ESC4000-E11 Intel Xeon Scalable kaufen ASUS GPU Server ESC4000-E11 Intel Xeon Scalable kaufen
    Bis zu 4x Dual-Slot-GPU in nur 2 HE!

    ASUS GPU Server ESC4000-E11 Intel Xeon Scalable

    • 2 HE ASUS GPU Server Gehäuse
    • 2600 Watt redundant
    • Intel C741 Chipsatz
    • 2x Intel Xeon Scalable Gen 4 / 5 Serie
    • bis zu 2.0 TB DDR5 ECC Reg./LR-DIMM
    • 2x 1 Gbit/s LAN
    • 2x NVIDIA H200 / 4x H100 GPU Support
    • 4x 3.5"/2x 2.5" SATA/SAS Hot-Swap (2x NVMe)
    • 1x M.2 Key M Port, PCIe 3.0 x4 / SATA
    • 3 Jahre Garantie inklusive
    • Spare-Part Express Vorabaustausch
    Hst-Nr: 130617
    zzgl. Steuern 7.560,30 € Inkl. Steuern 8.996,76 €
    KonfigurierenDetails
  • ASUS GPU Server ESC4000A-E12 2U AMD EPYC kaufen ASUS GPU Server ESC4000A-E12 2U AMD EPYC kaufen
    Bis zu 4x PCIe 5.0 Dual-Slot GPU!

    ASUS GPU Server ESC4000A-E12 2U AMD EPYC

    • 2 HE ASUS GPU Server Gehäuse
    • 2600 Watt redundant
    • System on Chip
    • 1x AMD EPYC™ 9004 Serie
    • bis zu 3.0 TB DDR5 ECC Reg.
    • 2x 1 Gbit/s LAN
    • 2x NVIDIA H200 / 4x H100 GPU Support
    • 6x Hot-Swap SAS/SATA (4x NVMe)
    • nein
    • 3 Jahre Garantie inklusive
    • Spare-Part Express Vorabaustausch
    Hst-Nr: ESC4000A-E12
    zzgl. Steuern 6.134,90 € Inkl. Steuern 7.300,53 €
    KonfigurierenDetails
  • ASUS GPU Server ESC8000A-E12 4U AMD EPYC™ kaufen ASUS GPU Server ESC8000A-E12 4U AMD EPYC™ kaufen
    ✔ Ab Lager lieferbar!

    ASUS GPU Server ESC8000A-E12 4U AMD EPYC™

    • 4 HE ASUS GPU Server Gehäuse
    • 3000 Watt 2+2 redundant
    • System on Chip
    • 2x AMD EPYC™ 9004 Serie
    • bis zu 6.0 TB DDR5 ECC Reg./LR-DIMM
    • 2x 10 Gbit/s LAN + IPMI
    • 4x NVIDIA H200 / 8x H100 GPU Support
    • 8x 3.5" NVMe/SAS/SATA Hot-Swap
    • M.2 optional über PCIe-Karte
    • 3 Jahre Garantie inklusive
    • Spare-Part Express Vorabaustausch
    Hst-Nr: ESC8000A-E12
    zzgl. Steuern 12.292,50 € Inkl. Steuern 14.628,08 €
    KonfigurierenDetails

4 Artikel


High-End Datacenter GPU - NVIDIA H200

Die Datacenter GPU auf Basis der NVIDIA Hopper™-Architektur kommt mit einem Mehr-Instanzen-Grafikprozessor, der 4. Generation von Tensor-Kernen, der 3. Generation von RT-Kernen und einer FP32-Leistung von 67 TeraFLOPS.

Generative KI, LLM-Training und Inferenz Anwendungen profitieren von der FP8 Transformer Engine, einer Tensor-Leistung von über 3,9 PetaFLOPS und einem großem L2-Cache. Passend zu den Workloads ist die cloudnative Softwareplattform NVIDIA AI Enterprise beim Kauf inklusive!

141 Gigabyte HBM3e-Speicher sorgen für noch nie dagewesene Beschleunigung von HPC- und Inferenzworkloads.

Verbessern Sie die Medienbeschleunigung mit 7 Encode & Decode Engines, 7 JPEG-Dekodern und Unterstützung für AV1 Encode- & Decoding.

Bis zu vier H200 NVL GPUs können in einem GPU Server verbaut werden, und stellen in Kombination mit leistungsstarken Server Prozessoren eine enorme Rechenleistung für eine große Bandbreite an möglichen Workloads zur Verfügung.

H200 NVL Datenblatt Beratung anfordern


Erreichen Sie Ihre Ziele schneller - mit weniger Kosten

Llama 70B-Inferenz

1.9X

schneller

GPT3-175B-Inferenz

1.6X

schneller

HPC

110X

schneller


Erhöhte Performance für LLM-Inferenz

Die steigende Relevanz von LLMs für Unternehmen sorgt für bringt eine Vielzahl von zu erfüllenden Inferenzanforderungen mit sich. Um die Wirtschaftlichkeit von KI-Inferenzbeschleunigern zu gewährleisten, muss ein höchstmöglicher Durchsatz mit geringstmöglichen Gesamtbetriebskosten vereinbart werden.

Im Vergleich zum Vorgänger H100 verdoppelt die NVIDIA H200 NVL GPU die Inferenzgeschwindigkeit bei der Verarbeitung von großen Sprachmodellen wie zum Beispiel Llama2.

Mehr zur KI-Inferenzplattform von NVIDIA >


Vergleich der LLM-Inferenz-Leistung zwischen NVIDIA H100 und H200 GPU
Vorläufige Spezifikationen. Änderungen vorbehalten.
Llama2 13B: ISL 128, OSL 2K | Durchsatz | H100 SXM 1x GPU BS 64 | H200 SXM 1x GPU BS 128
GPT-3 175B: ISL 80, OSL 200 | x8 H100 SXM GPU BS 64 | x8 H200 SXM GPU BS 128
Llama2 70B: ISL 2K, OSL 128 | Durchsatz | H100 SXM 1x GPU BS 8 | H200 SXM 1x GPU BS 32

Mehr Speicherbandbreite für HPC-Anwendungen

Für die speicherintensivsten HPC-Anwendungen ist die Bandbreite von essenzieller Wichtigkeit, um schnellere Datenübertragungen zu ermöglichen und gleichzeitig Engpässe bei der hochkomplexen Verarbeitung zu reduzieren. Für Forschung, künstliche Intelligenz oder Simulationen – die H200 NVL GPU stellt mit ihren 4.8 TB/s Speicherbandbreite sicher, dass das Abrufen und die Bearbeitung von Daten effizient gestaltet wird – und so eine bis zu 110x schnellere Ergebnisbereitstellung ermöglicht.

Mehr über High-Performance Computing >


Vergleich der HPC-Leistung zwischen NVIDIA H100 und H200
Vorläufige Spezifikationen. Änderungen vorbehalten.
HPC MILC – Datensatz NERSC Apex Medium | HGX H200 4-GPU | Dual Sapphire Rapids 8480
HPC-Anwendungen – CP2K: Datensatz H2O-32-RI-dRPA-96points | GROMACS: Datensatz STMV | ICON: Datensatz r2b5 |
MILC: Datensatz NERSC Apex Medium | Chroma: Datensatz HMC Medium | Quantum Espresso: Datensatz AUSURF112 |
1 x H100 SXM | 1 H200 SXM

Weniger Energieverbrauch und Gesamtbetriebskosten

Die NVIDIA H200 NVL GPU bringt Energieeffizienz und Gesamtbetriebskosten auf ein neues Level. Mit dieser Technologie schafft es NVIDIA innerhalb des gleichen Leistungsprofils wie der H100 eine bislang unvergleichliche Leistung bereitzustellen. So wird die künstliche Intelligenz und das Supercomputing nicht nur schneller und effizienter, sondern auch nachhaltiger. Ein wirtschaftlicher Vorteil, der KI und Wissenschaft vorantreibt.

Mehr über nachhaltiges Computing >


Vergleich der Energieeffizienz und TCO zwischen NVIDIA H100 und H200
Vorläufige Spezifikationen. Änderungen vorbehalten.
Llama2 70B: ISL 2K, OSL 128 | Durchsatz | H100 SXM 1x GPU BS 8 | H200 SXM 1x GPU BS 32

NVIDIA H200 NVL vs NVIDIA H100 NVL vs NVIDIA HGX A100

Mehr Leistung für KI, HPC und Simulationen

ModellNVIDIA H200 NVLNVIDIA H100 NVLNVIDIA HGX A100
Anwendungsgebietemax. Performance für KI und HPCstarke Performance für generative KIhochperformante Multi-Node KI
GPU-ArchitekturNVIDIA HopperNVIDIA HopperNVIDIA Ampere
FP6434 TFLOPS30 TFLOPS9,7 TFLOPS
FP3267 TFLOPS60 TFLOPS19,5 TFLOPS
TF-32 Tensor Core989 TFLOPS835 TFLOPS312 TFLOPS
FB16/BF16 Tensor Core1979 TFLOPS1671 TFLOPS624 TFLOPS
FP8 Tensor Core3958 TFLOPS3341 TFLOPSN/A
INT8 Tensor Core3958 TFLOPS3341 TFLOPS1248 TFLOPS
GPU Speicher141 GB HBM3e mit ECC94 GB HBM3 mit ECC80 GB HBM2e
GPU Speicher Bandbreite4,8 TB/s3,9 TB/s2039 GB/s
L2 Cache96 MB50 MB40 MB
Decoder7 NVDEC
7 JPEG
7 NVDEC
7 JPEG
5 NVDEC
5 NVJPEG
Leistungsaufnahmebis zu 600 Wattbis zu 400 Wattbis zu 400 Watt
Formfaktor2-Slot FHFL2-Slot FHFL8-Wege HGX
Verfügbarkeitsehr lange Lieferzeit

Jetzt Kontakt aufnehmen und von unseren GPU Server Experten beraten lassen

Enver Coban
PLZ Bereich 2, 3

Rückruf anfragen
vertrieb@primeline.org
Daniel Poertner
PLZ Bereich 1, 0

Rückruf anfragen
vertrieb@primeline.org
Petar Crnkovic
PLZ Bereich 7, 8

Rückruf anfragen
vertrieb@primeline.org
Jörg Engels
PLZ Bereich 4, 5

Rückruf anfragen
vertrieb@primeline.org
Torsten Wetzel
PLZ Bereich 6, 9

Rückruf anfragen
vertrieb@primeline.org
Alek Körtner
PLZ Bereich 2, 3

Rückruf anfragen
vertrieb@primeline.org
Sie möchten gerne persönlich beraten werden oder haben noch Fragen? Wir beraten Sie gerne!Wählen Sie Ihren PLZ Bereich: 0 1 2 3 4 5 6 7 8 9
Sie sind Wiederverkäufer, öffentliche Einrichtung oder betreiben ein Rechenzentrum? Jetzt registrieren für Ihre Konditionen!