Nvidia stellt PCIe 4.0-Version der Ampere A100 GPU vor

Bildnachweis: Pixabay/CC0 Public Domain

Nach dem Display der nächsten Generation der High-End-GPU Ampere A100 im letzten Monat hat Nvidia diese Woche eine PCIe-4.0-Version der Grafikeinheit vorgestellt.

Die Karte wurde für eine einfachere Installation in Personalcomputern, standardisierten Servern und bestehenden Systemen entwickelt, die künstliche Intelligenz und andere Supercomputing-Aufgaben bewältigen. Die A100 GPU wurde für maßgeschneiderte Systeme entwickelt, die speziell für High-End-Aufgaben konstruiert wurden.

Ansonsten haben die neuesten Nvidia-Karten, die auf der neuesten 7-nm-Ampere-Architektur basieren, nahezu identische Spezifikationen.

Sie verfügen jeweils über 40 GB Speicher, 54 Milliarden Transistoren, sechs HBM2-Speicherstapel und 6.912 CUDA-Kerne, die die GPU nutzen, um eine höhere Effizienz bei der Aufgabenausführung zu erreichen.

Beide verfügen auch über FP64-Tensor-Cores mit 19,5 TeraFLOPS, der Fähigkeit, 19,5 Billionen Gleitkommaberechnungen pro Sekunde zu verarbeiten.

Ein wesentlicher Unterschied ist der thermische Designpunkt: Der A100 hat eine Nennleistung von 400 W, während der PCIe 250 W hat. Die Leistungsreduzierung wird der Tatsache zugeschrieben, dass PCIe speziell für Produkte mit geringerer TDP entwickelt wurde, die im Allgemeinen weniger Platz für die Kühlung und einen geringeren Leistungsbedarf haben.

Der Unterschied bedeutet laut Nvidia eine Leistungsreduzierung von 10 Prozent bei Einzel-GPU-Workloads. Unter Umständen, die kontinuierliche GPU-Funktionen oder komplexe verteilte Workloads erfordern, könnte der Leistungseinbruch 33 bis 50 Prozent erreichen. Nvidia betonte jedoch, dass der maximale Leistungstreffer selten sein sollte, da nur eine begrenzte Anzahl von Aufgaben die Karte so stark belasten kann.

Die A100-GPU bietet eine beeindruckende Leistungssteigerung gegenüber früheren Modellen. Es hat die Fähigkeit, sich in sieben virtuelle GPUs aufzuteilen, um unabhängige Aufgaben zu bewältigen, und eine Verknüpfungsfähigkeit, um mehrere verschiedene GPUs in einer einzigen massiven Verarbeitungseinheit zu kombinieren. Leistungstests ergaben, dass der A100 20-mal bessere Ergebnisse erzielt als sein Vorgänger, der die Volta-Mikroarchitektur verwendet.

Nvidia berichtete, dass der A100 kürzlich einen Big-Data-Analytics-Benchmark gebrochen hat und eine Aufgabe erledigt hat, für die der bisherige Rekordhalter 4,7 Stunden in nur 14,5 Minuten benötigt hat.

Die Reaktion auf die neuen GPUs von Nvidia war schnell.

„Die Einführung von Nvidia A100 GPUs in die Angebote führender Serverhersteller übertrifft alles, was wir bisher gesehen haben“, so Ian Buck, Vice President und General Manager of Accelerated Computing bei Nvidia.

Zu den Herstellern, die die neuen Einheiten in ihre Server integrieren werden, gehören Cisco, Dell Technologies, HPE, ASUS, Lenovo und Fujitsu. Mehr als 30 Anlagen sollen in diesem Sommer gebaut werden, mindestens 20 weitere bis Ende des Jahres.

Es wurden noch keine Preisinformationen veröffentlicht.


Leave a Comment