Supermicro推出搭載NVIDIA HGX A100 8-GPU最高密度4U伺服器和支援20張A100 PCI-E GPU的8U SuperBlade

最高密度4U系統提供6倍AI訓練效能和7倍推論工作負載容量,而最新的SuperBlade可在8U尺寸中支援最多40張GPU

2020年10月9日加州聖荷西 /美通社/ --為企業級運算、儲存、網路解決方案和綠色運算技術等領域的全球領導者,今日宣佈推出支援8張NVIDIA HGX A100™ GPU且擁有雙倍GPU功能的全新4U伺服器。Supermicro供應業界最多樣化的GPU系統產品組合,涵蓋1U、2U、4U和10U的GPU伺服器與SuperBlade伺服器,並提供各種可自訂組態。

Supermicro在推出最新的NVIDIA HGX A100™ 8-GPU伺服器後,目前供應的GPU系統選擇為業界類型最廣、規格最多樣,能為邊緣到雲端等應用提供優異效能。整個產品組合包括1U、2U、4U 和10U機架式GPU系統;Ultra、BigTwin™和嵌入式解決方案,並可選擇搭載AMD EPYC™和支援Intel Deep Learning Boost技術的Intel Xeon處理器。

Supermicro執行長暨總裁Charles Liang表示:「Supermicro推出採用NVIDIA HGX™ A100 8-GPU主機板(原代號為Delta)的全新4U系統,與目前的系統相比,可提供6倍AI訓練效能和7倍推論工作負載容量。此外,最新發表的NVIDIA HGX™ A100 4-GPU主機板(原代號為Redstone)相當受到市場歡迎,讓我們對接下來全球客戶的迴響有著高度期待。這些最新的Supermicro系統可針對瞬息萬變市場所需的加速工作負載大幅提升整體效能,使用在包括高效能運算(HPC)、資料分析、深度學習訓練和推論等領域。」

Supermicro推出搭載NVIDIA HGX A100 8-GPU最高密度4U伺服器和支援20張A100 PCI-E GPU的8U SuperBlade

最新高密度2U和4U伺服器採用Supermicro進階散熱設計(包括客製化散熱片和選購的水冷系統),並搭載NVIDIA HGX A100 4-GPU 8-GPU主機板,另外還推出支援8張NVIDIA A100 PCI-E GPU的全新4U伺服器,於即日起供貨。Supermicro的進階I/O模組(AIOM)規格具有高靈活性,可進一步提升網路通訊功能。AIOM可搭配高速、低延遲的最新PCI-E 4.0儲存與網路裝置使用,支援NVIDIA GPUDirect RDMA和GPUDirect Storage,並可透過NVIDIA Mellanox InfiniBand的NVME over Fabrics(NVMe-oF)將連續資料流饋入可擴展的多重GPU系統,而不會出現瓶頸。此外,Supermicro的鈦金級電源供應器96%能源效率領先業界,提升系統的省電效率。不只省下更多電費,還能為GPU提供備援支援。

NVIDIA產品管理與行銷部資深主管Paresh Kharya表示:「Supermicro搭載NVIDIA A100的系統可快速擴充至數千張GPU,或可使用最新的多重實例GPU技術,將每張A100 GPU分割成7張獨立的GPU 實例,以執行不同的工作。支援TensorFloat 32的NVIDIA A100 Tensor Core GPU可提供比前一代高20倍的運算容量,無需變更任何程式碼。」

此2U系統搭載NVIDIA HGX A100 4-GPU主機板,並採用Supermicro的進階散熱片設計,在滿載下仍可維持最佳的系統溫度,且外型規格精簡輕巧。系統可透過NVIDIA NVLink執行高GPU點對點通訊,可安裝最高8TB的DDR4 3200Mhz系統記憶體,具備5個支援GPUDirect RDMA的PCI-E 4.0 I/O插槽,還有4個支援GPUDirect Storage功能的可熱插拔NVMe。

最新4U GPU系統搭載NVIDIA HGX A100 8-GPU主機板,具備最多6個NVMe U.2和2 個NVMe M.2、10個PCI-E 4.0 x16插槽,並採用Supermicro獨家的AIOM,能透過GPUDirect RDMA、GPUDirect Storage及InfiniBand上的NVMe-oF等最新技術堆疊,支援系統之間的高效8-GPU通訊與資料流。系統使用NVIDIA NVLink和NVSwitch技術,適合用於大規模的深度學習訓練、研究或國家實驗室專用的神經網路模型應用、超級運算叢集和高效能運算雲端服務。

這款業界最高密度的GPU刀鋒伺服器裝載在Supermicro的8U SuperBlade機殼內,可支援最多20個節點和40張GPU,每節點兩張單寬GPU,或每節點一張NVIDIA Tensor Core A100 PCI-E GPU。在8U尺寸內裝入20張NVIDIA A100 GPU,進一步提升運算效能密度,且尺寸更小巧,能為客戶降低總體擁有成本。為支援GPU最佳化的配置並維持高需求AI應用程式所需的頂尖效能和傳輸量,SuperBlade提供100%不阻塞的HDR 200Gb/s InfiniBand網路基礎架構,可加速深度學習並支援即時分析和決策。SuperBlade同時具備高密度、可靠度和可升級性,為企業應用程式提供AI服務的完美建構基礎。

Supermicro持續支援各種規格的NVIDIA高階GPU,專為客戶的獨特使用案例情境和需求最佳化。1U GPU系統可透過NVLink容納最多4張NVIDIA GPU,已通過包括NEBS第3級認證、5G/邊緣就緒的SYS-1029GQ等認證。Supermicro的SYS-2029GP-TR等2U GPU系統支援最多6張NVIDIA V100 GPU,可在同一系統內容納雙PCI-E控制源(Dual PCI-E Root Complex)功能。最後,如SYS-9029GP-TNVRT等10U GPU伺服器支援最多16張V100 SXM3 GPU,並可搭載內建AI加速能力的雙Intel Xeon可擴充處理器。

彈性的解決方案系列採用NVIDIA GPU和NVIDIA NGC™生態系統提供的GPU軟體,能為各種工作提供適合的建構基礎,滿足不同產業組織的需求,適用於開發模型的AI推論、高效能運算到高階訓練等應用。

最新國際新聞
行動版 電腦版