Artikelnummer: 15618

PNY NVIDIA Ampere A800-40GB PCIe 4.0 Data Center GPU

  • PCI Express 4.0 x16
  • Speicher: 40 GB
  • Speicher Typ: HBM2
  • Speicher Bandbreite: 1500 GB/s
  • 6912 CUDA Cores
Artikelbeschreibung anzeigen
zzgl. Steuern
15.429,50 €
Auf die Vergleichsliste

Verfügbarkeit:

Kurzfristig verfügbar, Lieferzeit ca. 2-5 Werktage

Weitere Informationen zu Versand und Zahlung

PNY NVIDIA Ampere A800-40GB PCIe 4.0 Data Center GPU(900-51001-2200-000)

Die Supercomputing-Plattform für Workstations

Die NVIDIA A800 40GB GPU, die auf der NVIDIA Ampere Architektur basiert, ist die ultimative Workstation-Entwicklungsplattform mit integrierter NVIDIA AI Enterprise Software und bietet eine hohe Leistung zur Beschleunigung von Data Science, AI, HPC und technischen Simulationen/CAE-Workloads der nächsten Generation.

Angetrieben von der NVIDIA Ampere Architektur

  • Tensor Cores der dritten Generation: Leistung und Vielseitigkeit für eine breite Palette von KI- und HPC-Anwendungen mit Unterstützung für Double-Precision (FP64) und Tensor Float 32 (TF32) Präzision bietet bis zu 2-fache Leistung und Effizienz gegenüber der vorherigen Generation. Die Hardware-Unterstützung für strukturelle Sparsamkeit verdoppelt den Durchsatz für Inferencing.
  • Multi-Instanz-GPU: Vollständig isolierte und sichere Mehrmandantenfähigkeit auf Hardwareebene mit dediziertem Speicher, Cache und Rechenkernen mit hoher Bandbreite. Multi-Instance GPU (MIG) maximiert die Nutzung der GPU-beschleunigten Infrastruktur und ermöglicht es, eine A800 40GB GPU in bis zu sieben unabhängige Instanzen zu partitionieren, so dass mehrere Benutzer Zugang zur GPU-Beschleunigung erhalten.
  • NVIDIA NVLink der dritten Generation: Erhöhte GPU-zu-GPU-Verbindungsbandbreite bietet einen einzigen skalierbaren Speicher zur Beschleunigung von Rechenlasten und zur Bewältigung größerer Datensätze. Verbinden Sie zwei NVIDIA A800 40 GB GPUs mit NVIDIA NVLink, um den effektiven Speicherbedarf auf 80 GB zu erhöhen und die Anwendungsleistung zu skalieren, indem Sie GPU-zu-GPU-Datenübertragungen mit Raten von bis zu 400 GB/s (bidirektional) ermöglichen.
  • Ultraschneller HBM2-Speicher: Erzielen Sie einen enormen Rechendurchsatz mit 40 GB Hochgeschwindigkeits-HBM2-Speicher mit einer klassenführenden Speicherbandbreite von 1,5 TB/s - eine Steigerung von über 70 % im Vergleich zur vorherigen Generation - und deutlich mehr On-Chip-Speicher, einschließlich 40 MB Level-2-Cache, um die rechenintensivsten KI- und HPC-Workloads zu beschleunigen.

NVIDIA A800 Eckdaten

  • Grafikprozessorspeicher: 40 GB HBM2 mit fehlerkorrigierendem Code (ECC)
  • Speicher-Interface: 5.120-bit
  • GPU-Speicherbandbreite: 1500 GB/s
  • Anzahl CUDA Cores: 6.912
  • Anzahl Tensor Cores: 432
  • Double-Precision Performance: 9.7 TFLOPS
  • Single-Precision Performance: 19.5 TFLOPS
  • Peak Tensor Performance: 623.8 TFLOPS
  • Multi-Instanz GPU: Bis zu 7 MIG-Instanzen @ 5 GB
  • NVIDIA NVLink-Unterstützung @ 400 GB/s
  • Schnittstelle: PCIe 4.0 x16
  • Max. Energieverbrauch: 240 W
  • Kühlung: Aktiv
  • Abmessungen: 112 x 267 mm, Dual-Slot

Downloads (PDF):

NVIDIA A800 Datasheet

Downloads

Produktdatenblatt (PDF - 0.33MB)

Allgemein

HerstellerNVIDIA
Hersteller Artikelnummer900-51001-2200-000
Hersteller Garantie (Monate)12 Mon. Hersteller Garantie
Verpackungretail

Erweiterungskarten

HostschnittstellePCI Express 4.0 x16
Bauform kompatibelfull-height
Slot BelegungDual-Slot

Arbeitsspeicher / Cache

Speicher40 GB
Speicher TypHBM2
FehlerkorrekturECC

Arbeitsspeicher Details

Speicher Interface5.120 Bit
Speicher Bandbreite1500 GB/s

Grafik- und GPU Karten

Externe Anschlüssekeine
Graphic APIskeine Angabe
Compute APIsCUDA, DirectCompute, OpenCL, OpenACC
max. Displays simultan0
Kühlungaktiv - für GPU Server geeignet [mit Lüfter]
CUDA Kerne6912 CUDA Cores
Tensor Kerne432 Tensor Cores

Abmessungen

BreiteDual Slot
Höhe111.76 mm
Tiefe266.7 mm

Weiteres

enthaltenes Zubehör-
Haben Sie Fragen?

Kontaktieren Sie uns gern jederzeit.