Home
  • + 30.000 verkaufte PC & Workstations
  • + 25.000 verkaufte Serversysteme
  • + 5.000 zufriedene Kunden
  • + 14 Jahre Erfahrung
  • + persönliche Beratung
Warenkorb:
0 Artikel - 0,00 €
Sie haben keine Artikel im Warenkorb.

0

NVIDIA H200 NVL 141GB HBM3e PCIe 5.0 Data Center GPU Bild 1

Mehr Ansichten

    NVIDIA H200 NVL 141GB HBM3e PCIe 5.0 Data Center GPU

    zzgl. Steuern: 28.038,50 € Inkl. Steuern: 33.365,82 €
    • PCI Express 5.0 x16
    • Speicher: 141 GB
    • Speicher Typ: HBM3e
    • Speicher Bandbreite: 4800 GB/s
    • 16896 CUDA Cores
    Artikelnummer: 15626

    Verfügbarkeit: Die Lieferzeit für dieses Produkt beträgt ca. 60 Werktage ab Bestelleingang.

    Für einen verbindlichen Liefertermin wenden Sie sich bitte direkt an unseren Vertrieb.

    Weitere Informationen zu Versand und Zahlung

    NVIDIA H200 NVL 141GB HBM3e PCIe 5.0 Data Center GPU (TCSH200NVLPCIE-PB)

    Die GPU für KI und HPC

    Herausragende Leistung für generative KI und High Performance Computing: Die NVIDIA H200 NVL GPU bietet unschlagbare Performance und Speicherkapazität. Durch die 141 Gigabyte HBM3e-Speicher, die in der H200 zum Einsatz kommen, werden sowohl große Sprachmodelle und generative KI beschleunigt als auch die komplexen Berechnungen von HPC-Workloads angetrieben.


    Performance Highlights der NVIDIA H200 NVL GPU


    Mehr Performance dank größerem und schnellerem HBM3e-Speicher

    Basierend auf der NVIDIA Hopper™- Architektur ist die NVIDIA H200 die weltweit erste GPU mit 141 GB HBM3e-Speicher – fast die zweifache Kapazität des Vorgängers NVIDIA H100 – bei einer 1.4-fachen Speicherbandbreite von 4.8 Terabyte pro Sekunde. Der größere und schnellere HBM3e-Speicher beschleunigt große Sprachmodelle (LLMs) und die Prozesse generativer KI und bietet gleichzeitig eine deutlich verbesserte Energieeffizienz. So sorgt die NVIDIA H200 auch bei High Performance Computing Workloads für geringere Gesamtbetriebskosten.

    Erhöhte Performance für LLM-Inferenz

    Die steigende Relevanz von LLMs für Unternehmen sorgt für bringt eine Vielzahl von zu erfüllenden Inferenzanforderungen mit sich. Um die Wirtschaftlichkeit von KI-Inferenzbeschleunigern zu gewährleisten, muss ein höchstmöglicher Durchsatz mit geringstmöglichen Gesamtbetriebskosten vereinbart werden.

    Im Vergleich zum Vorgänger H100 verdoppelt die NVIDIA H200 NVL GPU die Inferenzgeschwindigkeit bei der Verarbeitung von großen Sprachmodellen wie zum Beispiel Llama2.

    Mehr zur KI-Inferenzplattform von NVIDIA >


    Vergleich der LLM-Inferenz-Leistung zwischen NVIDIA H100 und H200 GPU
    Vorläufige Spezifikationen. Änderungen vorbehalten.
    Llama2 13B: ISL 128, OSL 2K | Durchsatz | H100 SXM 1x GPU BS 64 | H200 SXM 1x GPU BS 128
    GPT-3 175B: ISL 80, OSL 200 | x8 H100 SXM GPU BS 64 | x8 H200 SXM GPU BS 128
    Llama2 70B: ISL 2K, OSL 128 | Durchsatz | H100 SXM 1x GPU BS 8 | H200 SXM 1x GPU BS 32

    Mehr Speicherbandbreite für HPC-Anwendungen

    Für die speicherintensivsten HPC-Anwendungen ist die Bandbreite von essenzieller Wichtigkeit, um schnellere Datenübertragungen zu ermöglichen und gleichzeitig Engpässe bei der hochkomplexen Verarbeitung zu reduzieren. Für Forschung, künstliche Intelligenz oder Simulationen – die H200 NVL GPU stellt mit ihren 4.8 TB/s Speicherbandbreite sicher, dass das Abrufen und die Bearbeitung von Daten effizient gestaltet wird – und so eine bis zu 110x schnellere Ergebnisbereitstellung ermöglicht.

    Mehr über High-Performance Computing >


    Vergleich der HPC-Leistung zwischen NVIDIA H100 und H200
    Vorläufige Spezifikationen. Änderungen vorbehalten.
    HPC MILC – Datensatz NERSC Apex Medium | HGX H200 4-GPU | Dual Sapphire Rapids 8480
    HPC-Anwendungen – CP2K: Datensatz H2O-32-RI-dRPA-96points | GROMACS: Datensatz STMV | ICON: Datensatz r2b5 |
    MILC: Datensatz NERSC Apex Medium | Chroma: Datensatz HMC Medium | Quantum Espresso: Datensatz AUSURF112 |
    1 x H100 SXM | 1 H200 SXM

    Weniger Energieverbrauch und Gesamtbetriebskosten

    Die NVIDIA H200 NVL GPU bringt Energieeffizienz und Gesamtbetriebskosten auf ein neues Level. Mit dieser Technologie schafft es NVIDIA innerhalb des gleichen Leistungsprofils wie der H100 eine bislang unvergleichliche Leistung bereitzustellen. So wird die künstliche Intelligenz und das Supercomputing nicht nur schneller und effizienter, sondern auch nachhaltiger. Ein wirtschaftlicher Vorteil, der KI und Wissenschaft vorantreibt.

    Mehr über nachhaltiges Computing >


    Vergleich der Energieeffizienz und TCO zwischen NVIDIA H100 und H200
    Vorläufige Spezifikationen. Änderungen vorbehalten.
    Llama2 70B: ISL 2K, OSL 128 | Durchsatz | H100 SXM 1x GPU BS 8 | H200 SXM 1x GPU BS 32

    Mainstream-Enterprise-Server mit beschleunigter KI


    Vergleich der Energieeffizienz und TCO zwischen NVIDIA H100 und H200


    Mit der NVIDIA H200 erhalten Sie die bestmögliche Performance auf kleinem Raum. So können Kunden mit eingeschränkten Platzverhältnissen in Rechenzentren von der größenunabhängigen Beschleunigung für KI- und HPC-Workloads profitieren. Mit der 1.5-fach gesteigerten Speichergröße und dem Upgrade auf HBM3e, sowie der 1.4-fachen Bandbreite von 4.8 TB/s gegenüber dem Vorgänger H100 können Sie Ihre LLMs innerhalb von wenigen Stunden optimieren und eine 1.8-mal schnellere LLM-Inferenz erreichen.

    Technische Daten

    H200 NVL
    FP6434 teraFLOPS
    FP64-Tensor-Core67 teraFLOPS
    FP3267 teraFLOPS
    TF32-Tensor-Core1.979* teraFLOPS
    BFLOAT16-Tensor-Core1.979* teraFLOPS
    FP16-Tensor-Core1.979* teraFLOPS
    FP8-Tensor-Core3.958* teraFLOPS
    INT8-Tensor-Core3.958* TOPS
    GPU-Speicher141 GB HBM3e
    GPU-Speicherbandbreite4.8 TB/s
    Decoder7 NVDEC / 7 JPEG
    Confidential ComputingUnterstützt
    Max. Thermal Design Powerbis zu 600W (konfigurierbar)
    Mehr-Instanzen-GrafikprozessorenBis zu 7 MIGs mit je 16.5 GB
    FormfaktorPCIe
    Konnektivität2- oder 4-Way-NVIDIA NV-Link-Bridge: 900 GB/s PCIe Gen5: 128 GB/s
    ServeroptionenNVIDIA MGX™ H200 NVL-Partner und NVIDIA-Certified Systems mit bis zu 8 GPUs
    NVIDIA AI EnterpriseInbegriffen
    * Mit geringer Datendichte dargestellt. Es handelt sich um vorläufige Spezifikationen. Änderungen vorbehalten.

    Allgemein

    HerstellerNVIDIA
    Hersteller ArtikelnummerTCSH200NVLPCIE-PB
    Hersteller Garantie (Monate)12 Mon. Hersteller Garantie
    Verpackungretail

    Erweiterungskarten

    HostschnittstellePCI Express 5.0 x16
    Bauform kompatibelfull-height
    Slot BelegungDual-Slot

    Arbeitsspeicher / Cache

    Speicher141 GB
    Speicher TypHBM3e
    FehlerkorrekturECC

    Arbeitsspeicher Details

    Speicher Interface6.144 Bit
    Speicher Bandbreite4800 GB/s

    Grafik- und GPU Karten

    Externe Anschlüssekeine
    Graphic APIsOpenCL 3.0
    Compute APIsCUDA, OpenCL
    max. Displays simultan0
    Kühlungpassiv - für GPU Server geeignet [ohne Lüfter]
    CUDA Kerne16896 CUDA Cores
    Tensor Kerne528 Tensor Cores

    Abmessungen

    BreiteDual Slot
    Höhe111.15 mm
    Tiefe267.7 mm

    Weiteres

    enthaltenes ZubehörNVIDIA AI Enterprise

    Downloads

    Produktdatenblatt (PDF - 0.58MB)
    Enver Coban
    PLZ Bereich 2, 3

    0049 5731 8694-352
    vertrieb@primeline.org
    Daniel Poertner
    PLZ Bereich 1, 0

    0049 5731 8694-432
    vertrieb@primeline.org
    Petar Crnkovic
    PLZ Bereich 7, 8

    0049 5731 8694-358
    vertrieb@primeline.org
    Jörg Engels
    PLZ Bereich 4, 5

    0049 5731 8694-356
    vertrieb@primeline.org
    Torsten Wetzel
    PLZ Bereich 6, 9

    0049 5731 8694-422
    vertrieb@primeline.org
    Alek Körtner
    PLZ Bereich 2, 3

    0049 5731 8694-412
    vertrieb@primeline.org
    Sie möchten gerne persönlich beraten werden oder haben noch Fragen? Wir beraten Sie gerne!Wählen Sie Ihren PLZ Bereich: 0 1 2 3 4 5 6 7 8 9
    Sie sind Wiederverkäufer, öffentliche Einrichtung oder betreiben ein Rechenzentrum? Jetzt registrieren für Ihre Konditionen!