Red Hat與AMD深化合作 打造AI與虛擬化基礎設施新標準


Red Hat與AMD深化合作 打造AI與虛擬化基礎設施新標準


Red Hat已和AMD達成合作,未來將朝向提升對AI工作負載的支援,以滿足企業日益增長的數據需求,以及橫跨地端與雲端系統的混合應用程式環境,並提供更多元的解決方案。記者孫敬/編譯


混合雲服務商紅帽(Red Hat),已和半導體大廠超微(AMD)達成合作,未來將朝向提升對AI工作負載的支援,以滿足企業日益增長的數據需求,以及橫跨地端與雲端系統的混合應用程式環境,並提供更多元的解決方案。


延伸閱讀:擺脫美國箝制?華為積極投資中國半導體產業鏈基礎建設


[caption id="attachment_175396" align="aligncenter" width="5000"]
Red Hat與AMD深化合作 打造AI與虛擬化基礎設施新標準
紅帽跟AMD的合作,協助資料中心AI算力不足的問題。(圖/Red Hat)[/caption]


AMD Instinct GPU整合Red Hat OpenShift AI:AI運算效能突破


隨著AI應用的蓬勃發展,支援AI運算需求的資料中心也面臨巨大壓力。然而,許多現有資料中心仍側重於傳統IT工作負載,導致AI運算能力嚴重不足。為了解決這一瓶頸,紅帽正將其領先的開源軟體與AMD的處理器及繪圖處理器(GPU)結合,為AI與虛擬機器(VM)提供一個更平衡、更高效能的運算基礎。


這項合作的關鍵一環是讓AMD Instinct GPU能夠與Red Hat OpenShift AI無縫協作。這將使使用者能夠存取AI所需的高效運算能力,同時有效控制資源使用。紅帽與AMD也針對在微軟Azure的ND MI300X v5虛擬機器上運行Red Hat Enterprise Linux AI的Instinct MI300X GPU進行了測試。測試結果顯示,這些GPU能夠支援小型及大型語言模型,而無需將工作負載分散到多個虛擬機器上,這不僅降低了成本,也簡化了複雜性。


兩家公司也積極參與上游的vLLM開源社群,該社群致力於改進AI推論效率。透過貢獻核心優化和通訊改進等更新,紅帽與AMD旨在讓多GPU工作負載運行得更快、更高效。這項工作還包括對在AMD硬體上運行的量化(quantised)和密集型AI模型提供更好的支援。


作為上游合作的一部分,AMD Instinct GPU將支援Red Hat AI Inference Server,這是一個經過測試、符合企業級標準的vLLM版本。紅帽正努力確保客戶無需進行客製化設置,即可在AMD硬體上運行AI模型。其理念是為使用者提供一個可靠的方式,在經過優化和驗證的GPU上部署開源AI模型。


除了GPU,AMD的EPYC處理器也在託管GPU驅動的系統中扮演關鍵角色。這些CPU在包括AI訓練和推論在內的廣泛工作負載中,均展現出強勁的性能,同時也有助於提升GPU伺服器的投資報酬率。


強化虛擬化基礎設施,加速企業雲端原生轉型


除了AI領域,此次合作也支援企業虛擬機器管理方式的轉變。在AMD EPYC處理器上運行的Red Hat OpenShift Virtualization,協助組織將基於虛擬機器的應用程式遷移到雲端原生平台。這項功能允許IT團隊從單一環境管理虛擬機器和容器,無論它們是部署在資料中心還是跨公共雲平台。


這種設置可以提高基礎設施利用率並降低營運開銷。OpenShift Virtualization支援在主要的伺服器品牌上部署,包括Dell、HPE和Lenovo。它的設計宗旨是幫助企業簡化既有基礎設施、降低總體成本,並為AI等新型工作負載騰出空間。


這篇文章 Red Hat與AMD深化合作 打造AI與虛擬化基礎設施新標準 最早出現於 科技島-掌握科技新聞、科技職場最新資訊

Google新聞-PChome Online新聞


最新科技新聞
人氣科技新聞
行動版 電腦版