Verfügbarkeit:
Kurzfristig verfügbar, Lieferzeit ca. 2-5 Werktage
Weitere Informationen zu Versand und Zahlung
PNY NVIDIA Ampere A800-40GB PCIe 4.0 Data Center GPU(900-51001-2200-000)
Die Supercomputing-Plattform für Workstations
Die NVIDIA A800 40GB GPU, die auf der NVIDIA Ampere Architektur basiert, ist die ultimative Workstation-Entwicklungsplattform mit integrierter NVIDIA AI Enterprise Software und bietet eine hohe Leistung zur Beschleunigung von Data Science, AI, HPC und technischen Simulationen/CAE-Workloads der nächsten Generation.
Angetrieben von der NVIDIA Ampere Architektur
- Tensor Cores der dritten Generation: Leistung und Vielseitigkeit für eine breite Palette von KI- und HPC-Anwendungen mit Unterstützung für Double-Precision (FP64) und Tensor Float 32 (TF32) Präzision bietet bis zu 2-fache Leistung und Effizienz gegenüber der vorherigen Generation. Die Hardware-Unterstützung für strukturelle Sparsamkeit verdoppelt den Durchsatz für Inferencing.
- Multi-Instanz-GPU: Vollständig isolierte und sichere Mehrmandantenfähigkeit auf Hardwareebene mit dediziertem Speicher, Cache und Rechenkernen mit hoher Bandbreite. Multi-Instance GPU (MIG) maximiert die Nutzung der GPU-beschleunigten Infrastruktur und ermöglicht es, eine A800 40GB GPU in bis zu sieben unabhängige Instanzen zu partitionieren, so dass mehrere Benutzer Zugang zur GPU-Beschleunigung erhalten.
- NVIDIA NVLink der dritten Generation: Erhöhte GPU-zu-GPU-Verbindungsbandbreite bietet einen einzigen skalierbaren Speicher zur Beschleunigung von Rechenlasten und zur Bewältigung größerer Datensätze. Verbinden Sie zwei NVIDIA A800 40 GB GPUs mit NVIDIA NVLink, um den effektiven Speicherbedarf auf 80 GB zu erhöhen und die Anwendungsleistung zu skalieren, indem Sie GPU-zu-GPU-Datenübertragungen mit Raten von bis zu 400 GB/s (bidirektional) ermöglichen.
- Ultraschneller HBM2-Speicher: Erzielen Sie einen enormen Rechendurchsatz mit 40 GB Hochgeschwindigkeits-HBM2-Speicher mit einer klassenführenden Speicherbandbreite von 1,5 TB/s - eine Steigerung von über 70 % im Vergleich zur vorherigen Generation - und deutlich mehr On-Chip-Speicher, einschließlich 40 MB Level-2-Cache, um die rechenintensivsten KI- und HPC-Workloads zu beschleunigen.
NVIDIA A800 Eckdaten
- Grafikprozessorspeicher: 40 GB HBM2 mit fehlerkorrigierendem Code (ECC)
- Speicher-Interface: 5.120-bit
- GPU-Speicherbandbreite: 1500 GB/s
- Anzahl CUDA Cores: 6.912
- Anzahl Tensor Cores: 432
- Double-Precision Performance: 9.7 TFLOPS
- Single-Precision Performance: 19.5 TFLOPS
- Peak Tensor Performance: 623.8 TFLOPS
- Multi-Instanz GPU: Bis zu 7 MIG-Instanzen @ 5 GB
- NVIDIA NVLink-Unterstützung @ 400 GB/s
- Schnittstelle: PCIe 4.0 x16
- Max. Energieverbrauch: 240 W
- Kühlung: Aktiv
- Abmessungen: 112 x 267 mm, Dual-Slot
Downloads (PDF):
NVIDIA A800 DatasheetDownloads | |
---|---|
Produktdatenblatt (PDF - 0.33MB) |
Allgemein | |
---|---|
Hersteller | NVIDIA |
Hersteller Artikelnummer | 900-51001-2200-000 |
Hersteller Garantie (Monate) | 12 Mon. Hersteller Garantie |
Verpackung | retail |
Erweiterungskarten | |
Hostschnittstelle | PCI Express 4.0 x16 |
Bauform kompatibel | full-height |
Slot Belegung | Dual-Slot |
Arbeitsspeicher / Cache | |
Speicher | 40 GB |
Speicher Typ | HBM2 |
Fehlerkorrektur | ECC |
Arbeitsspeicher Details | |
Speicher Interface | 5.120 Bit |
Speicher Bandbreite | 1500 GB/s |
Grafik- und GPU Karten | |
Externe Anschlüsse | keine |
Graphic APIs | keine Angabe |
Compute APIs | CUDA, DirectCompute, OpenCL, OpenACC |
max. Displays simultan | 0 |
Kühlung | aktiv - für GPU Server geeignet [mit Lüfter] |
CUDA Kerne | 6912 CUDA Cores |
Tensor Kerne | 432 Tensor Cores |
Abmessungen | |
Breite | Dual Slot |
Höhe | 111.76 mm |
Tiefe | 266.7 mm |
Weiteres | |
enthaltenes Zubehör | - |
Haben Sie Fragen?