NVIDIA Ampere GPU 以光速進入 Google Cloud
NVIDIA A100 GPU 發布後幾週便登陸 Google Compute Engine
NVIDIA A100 Tensor Core GPU 現已登陸 Google Cloud。
A100 推出後一個月便在 Google Compute Engine 中以 alpha 版的形式使用,成為 NVIDIA 有史以來最快登陸雲端的 GPU。
今天推出搭載 A100 的 Accelerator-Optimized VM (A2) 執行個體家族,使 Google 成為首家提供全新 NVIDIA GPU 的雲端服務供應商。
基於最新推出的 NVIDIA Ampere 架構打造的 A100,是 NVIDIA GPU 有史以來最大的世代飛躍。相較過去的 GPU,A100 將訓練和推論運算效能提高 20 倍以上,並大幅加快作業負載的速度,以推動人工智慧 (AI) 革命。
Google Cloud 產品管理總監 Manish Sainani 表示:「Google Cloud 的用戶經常希望我們提供最新的硬體和軟體服務,以幫助他們推動人工智慧和科學運算作業負載的創新。如同當時成為首家導入 NVIDIA T4 GPU 的供應商一樣,我們憑藉全新的 A2 VM 系列,很榮幸成為市場上首家採用 NVIDIA A100 GPU 的主要雲端供應商。我們很期待看到我們的用戶將如何運用這些新功能。」
在雲端資料中心中,A100 可以支援廣泛的運算密集型應用程式,包含 AI 訓練和推論、資料分析、科學運算、基因組學、邊緣影像分析與 5G 服務等。
透過 Google Compute Engine 上 A100 的突破性效能,將能讓快速發展的關鍵性產業加快探索速度。從垂直擴充 AI 訓練和科學運算,到水平擴充推論應用程式,再到實現即時對話式 AI,A100 可以加速在雲端運行的各種複雜且不可預測的作業負載規模。
即將問世的 NVIDIA CUDA 11 讓開發者可以使用 NVIDIA A100 GPU 的全新功能,包含 Tensor Cores、混合精度模式、多執行個體 GPU、先進的記憶體管理以及標準 C ++/Fortran 平行語言結構。
突破 A100 於雲端中應付各種作業負載規模的效能表現
全新 A2 VM 執行個體可以提供不同等級的效能,能在支援 CUDA 的機器學習訓練與推論、資料分析,以及高效能運算中有效地加速作業負載。
針對大型且要求嚴苛的作業負載,Google Compute Engine 為用戶提供搭載 16 個 A100 GPU 的 a2-megagpu-16g 執行個體,並以最大容量 9.6TB / s 的總頻寬透過 NVSwitch 連接,總共提供 640GB 的 GPU 記憶體和 1.3TB 的系統記憶體。
對於作業負載較小的用戶,Google Compute Engine 也提供較小配置的 A2 VM,以滿足特定應用程式的需求。
Google Cloud 宣布 NVIDIA A100 即將擴大支援 Google Kubernetes Engine、Cloud AI Platform 和其他 Google Cloud 服務。欲瞭解更多資訊,包含關於全新 A2 VM 系列的技術內容以及如何註冊存取權限,請參閱 Google Cloud 部落格。
發表迴響