NVIDIA 發表採用全新 Hopper 架構的新一代加速運算 GPU 產品 H100

NVIDIA 今日(3/23)宣布,為推動下一波人工智慧(AI)資料中心的發展,將推出採用 NVIDIA Hopper 架構的新一代加速運算平台,效能較上一代平台呈指數級成長。這個以美國電腦科學家先驅葛麗絲·霍普(Grace Hopper)命名的全新架構,將接替兩年前推出的 NVIDIA Ampere 架構。

NVIDIA 同時宣布推出首款採用 Hopper 架構的 GPU 產品 NVIDIA H100,封裝 800 億個電晶體,是全球最大且效能最強大的加速器,具突破性的功能,例如革命性的 Transformer Engine 及具高度擴展性的 NVLink 互連技術,可用於推動極大規模的 AI 語言模型、深度推薦系統、基因組學和複雜的數位孿生等領域的發展。



NVIDIA H100 這款 GPU 封裝了 800 億個電晶體,是全球最大且效能最強大的加速器

NVIDIA 創辦人暨執行長黃仁勳表示:「資料中心將成為 AI 工廠,用來處理海量資料並從中提煉出寶貴的智慧。NVIDIA H100 是全球 AI 基礎設施的引擎,讓企業得以加速推動各項 AI 業務的進展。」

H100 的突破性技術

NVIDIA H100 GPU 為加速大規模 AI 及高效能運算樹立了新標準,並帶來六項突破性創新:

H100 擁有 800 億個電晶體,採用台積電 4 奈米 4N 製程、專為滿足 NVIDIA 加速運算需求而設計,在加速 AI、高效能運算、記憶體頻寬、互連和通訊方面具有重大進展,包括每秒近 5TB 的外部連接速度。H100 是首款支援 PCIe Gen5 及首款使用 HBM3 的 GPU 產品,提供每秒 3TB 的記憶體頻寬。20 個 H100 GPU 便足以支撐全世界的網路流量,讓客戶得以運行先進的推薦系統和大型語言模型,即時使用各項資料進行推論。

Transformer 已是自然語言處理的首選標準模型,是史上最重要的深度學習模型之一。相較於前一代產品,H100 加速器的 Transformer Engine 能夠將這些網路的速度提高六倍,又不失其精度。

多執行個體 GPU(Multi-Instance GPU;MIG)技術可以將一個 GPU 分割成七個較小、完全隔離的執行個體以處理各類工作。Hopper 架構在雲端環境裡為每個 GPU 執行個體提供安全的多租戶配置,將 MIG 的能力較前一代擴大高達七倍。

H100 是全球首款具有機密運算能力的加速器,可以在處理 AI 模型和客戶資料時加以保護。對於醫療照護和金融服務等對隱私極為敏感的產業,在進行聯邦學習時同樣能運用機密運算,在共享的雲端基礎設施上也同樣可行。

為加快最大型 AI 模型的運作速度,以 NVLink 搭配全新的外部 NVLink 交換器,將 NVLink 當成伺服器以外的垂直擴展網路,相較於使用 NVIDIA HDR Quantum InfiniBand 的前一代產品,能以超過九倍的頻寬連接多達 256 個 H100 GPU。

與使用 CPU 相比,全新 DPX 指令將用於眾多演算法(包括路線最佳化及基因組學)的動態規畫執行速度加快高達 40 倍;而與使用前一代的 GPU 相比,速度加快了七倍。這包括為動態倉庫環境中的自主機器人車隊尋找最佳路線的 Floyd-Warshall 演算法,以及用於 DNA 和蛋白質分類及折疊的序列比對 Smith-Waterman 演算法。



最新遊戲新聞
人氣遊戲新聞
行動版 電腦版