QCT kündigte an, NVIDIA’s neue Serverplattform HGX-2 für Artificial Intelligence (AI) und High Performance Computing für die eigenen leistungsstarken Computing-Plattformen der QuantaGrid-Serie zu nutzen.
Auf der diesjährigen GTC Taiwan kündigte NVIDIA die Einführung der neuen Cloud-Server Plattform HGX-2 bereits an. Mit der neuen Plattform ist es Unternehmen möglich, Multi-Precision-Workloads zu beschleunigen. Auf Basis von zwei Petaflops können Unternehmen eine überragende Verarbeitungsleistung für AI-Anwendungen und HPC zu nutzen. QCT ist eines der Unternehmen, das von der neuen Technologie profitieren möchte. QCT möchte sich die neue Serverleistung zu Nutze machen.
Welche Anforderungen stellt QCT an die Cloud-Server-Plattform?
Die neuen Serversysteme sollen die Anforderungen zukünftiger AI- und HPC-Lösungen erfüllen. „Aufgrund des Aufkommens einer Vielzahl von AI-Anwendungen arbeitet QCT eng mit NVIDIA zusammen, um sicherzustellen, dass unsere Kunden von den neuesten und besten GPU-Technologien profitieren“, erklärte Mike Yang, Präsident von QCT. „Wir freuen uns sehr, als HGX-2-Launch-Partner unser Portfolio für GPU-Computing-Lösungen mit dieser zukunftsweisenden Lösung AI-basierter Cloud Anwendungen zu erweitern.“ Damit bereitet sich QCT mit neuen AI Cloud-Lösungen auf die Zukunft vor.
Was kann NVIDIA’s neue Plattform?
Die Cloud-Server-Plattform-HGX-2 enthält flexibel nutzbare Multi-Precision-Computing-Funktionen. Sie ermöglicht präzise Berechnungen mit FP64 und FP32. Diese können für wissenschaftliche Berechnungen und Simulationen genutzt werden. Gleichzeitig unterstützt die Serverplattform FP16 und Int8 für das AI-Training und Inferenzen. Nvidia erfüllt mit der neuen Plattform die Anforderungen der immer größer werdenden Anzahl von Anwendungen erfüllen, die HPC mit künstlicher Verbindung miteinander kombinieren.
Die HGX-2-Serverplattform bietet neue Features wie Nvidia NVSwitch Interconnect Fabric. Damit lassen sich 16 Tesla-V100-Tensor Core-GPUs problemlos zu einem einzigen Grafikprozessor mit zwei Petaflops verbinden. Das erste, auf der HGX-2-Serverplattform basierende System ist das kürzlich angekündigte DGX-2. Die Cloud-Serverplattform ist das Nachfolgesystem von Nvidia HGX-1, das erstmals auf der Computex 2017 präsentiert wurde. Die Referenzarchitektur von HGX-1 hatte bei Serverherstellern und Rechenzentrumsbetreibern wie Amazon Web Services, Facebook und Microsoft großen Zuspruch gefunden.
Damit gehört die HGX-2-Plattform zu den GPU-beschleunigten Serverplattformen von NVIDIA, die eine breite Palette von AI-, HPC- und Accelerated-Computing-Workloads mit hoher Leistung abdeckt. Die Plattformen passen sich dem Server-Ökosystem des Rechenzentrums an. Sie bieten die optimale Mischung aus GPUs, CPUs und Interconnects für diverse Trainings-, Inferenz- und Supercomputing- Anwendungen. Damit können Anwenderunternehmen eine spezifische Serverplattform wählen, die ihrem jeweils benötigten Computing-Workload-Mix entspricht.
Welche weiteren Unternehmen profitieren von NVIDIA’s Innovation?
Einige Serverhersteller wie Lenovo, Supermicro und Wiwynn haben bereits angekündigt, noch in diesem Jahr neue Systeme mit integrierter HGX-2-Architektur auf den Markt zu bringen. Außerdem entwickeln derzeit auch Original-Design-Hersteller wie Foxconn, Inventec, und Wistron HGX-2-basierte Systeme. Für den Einsatz in einigen der weltweit größten Cloud-Rechenzentren.