英特爾企業副總裁暨資料中心策略規劃部總經理Jeff McVeigh表示,隨著代理式AI與推論系統快速發展,AI正邁向無所不在的即時推論階段。在此架構下,Host CPU負責GPU系統之間的任務協調、記憶體管理、模型安全與資料吞吐,扮演不可或缺的核心角色。Intel Xeon 6提供高效能與高效率,並延續x86軟體生態系,協助企業擴展推論應用。
隨企業加速導入AI系統,推論效能已不僅取決於GPU算力,CPU主導的系統效能同樣關鍵。Host CPU影響叢集效率與總持有成本(TCO),並負責工作負載調度、記憶體存取與系統運行穩定性,同時確保AI基礎架構所需的安全性與可靠性。
在此背景下,Intel Xeon處理器憑藉支援高速記憶體、多元工作負載下的平衡效能,以及成熟的企業級軟體生態系,成為DGX Rubin NVL8系統的主機處理器。同時,強大的PCIe與I/O能力,讓Xeon在高頻寬、低延遲的AI運算環境中發揮關鍵作用。
英特爾指出,Xeon 6針對AI應用進行多項優化,包括支援NVIDIA Dynamo,以實現CPU與GPU之間的異質推論能力;並具備優異的每瓦效能與經驗證的可靠性,能在任務關鍵環境中維持穩定運作。此外,其在GPU加速系統中的調度能力,也有助於提升整體AI運算效率。
在安全與部署層面,Xeon 6支援Intel Trust Domain Extensions(TDX),透過硬體級隔離與遠端驗證,強化AI叢集的機密運算能力。隨著推論規模擴大,從CPU到GPU的端到端資料保護,已成為AI基礎架構的重要需求。
NVIDIA DGX Rubin NVL8系統整合Intel Xeon 6處理器,延續既有Blackwell平台架構基礎。在既有DGX B300系統採用Xeon 6776P的基礎上,英特爾持續導入效能與系統整合技術,強化新一代AI基礎架構。
此外,Xeon 6透過Priority Core Turbo等技術,提升資料傳輸至GPU的效率,並以強大的單執行緒效能負責排程與資料遷移,在推論工作負載日益複雜的情況下,確保系統運作流暢。
在硬體規格方面,Xeon 6支援最高8TB系統記憶體,滿足大型模型與KV cache需求;採用MRDIMM技術,使記憶體頻寬較前一代提升2.3倍;並提供PCIe 5.0通道支援AI加速器。同時,透過加密緩衝區與硬體隔離機制,確保CPU至GPU資料傳輸的安全性,進一步鞏固其在AI基礎設施中的核心地位。
火線話題 | 輝達GTC宣告實體AI來了
這篇報導屬於「 輝達GTC宣告實體AI來了 」主題,更多延伸閱讀:
點擊閱讀下一則新聞