英特爾企業副總裁暨資料中心策略規劃部總經理Jeff McVeigh表示,隨著代理式AI與推論系統快速發展,AI正邁向無所不在的即時推論階段。在此架構下,Host CPU負責GPU系統之間的任務協調、記憶體管理、模型安全與資料吞吐,扮演不可或缺的核心角色。Intel Xeon 6提供高效能與高效率,並延續x86軟體生態系,協助企業擴展推論應用。

隨企業加速導入AI系統,推論效能已不僅取決於GPU算力,CPU主導的系統效能同樣關鍵。Host CPU影響叢集效率與總持有成本(TCO),並負責工作負載調度、記憶體存取與系統運行穩定性,同時確保AI基礎架構所需的安全性與可靠性。

在此背景下,Intel Xeon處理器憑藉支援高速記憶體、多元工作負載下的平衡效能,以及成熟的企業級軟體生態系,成為DGX Rubin NVL8系統的主機處理器。同時,強大的PCIe與I/O能力,讓Xeon在高頻寬、低延遲的AI運算環境中發揮關鍵作用。

英特爾指出,Xeon 6針對AI應用進行多項優化,包括支援NVIDIA Dynamo,以實現CPU與GPU之間的異質推論能力;並具備優異的每瓦效能與經驗證的可靠性,能在任務關鍵環境中維持穩定運作。此外,其在GPU加速系統中的調度能力,也有助於提升整體AI運算效率。

在安全與部署層面,Xeon 6支援Intel Trust Domain Extensions(TDX),透過硬體級隔離與遠端驗證,強化AI叢集的機密運算能力。隨著推論規模擴大,從CPU到GPU的端到端資料保護,已成為AI基礎架構的重要需求。

NVIDIA DGX Rubin NVL8系統整合Intel Xeon 6處理器,延續既有Blackwell平台架構基礎。在既有DGX B300系統採用Xeon 6776P的基礎上,英特爾持續導入效能與系統整合技術,強化新一代AI基礎架構。

此外,Xeon 6透過Priority Core Turbo等技術,提升資料傳輸至GPU的效率,並以強大的單執行緒效能負責排程與資料遷移,在推論工作負載日益複雜的情況下,確保系統運作流暢。

在硬體規格方面,Xeon 6支援最高8TB系統記憶體,滿足大型模型與KV cache需求;採用MRDIMM技術,使記憶體頻寬較前一代提升2.3倍;並提供PCIe 5.0通道支援AI加速器。同時,透過加密緩衝區與硬體隔離機制,確保CPU至GPU資料傳輸的安全性,進一步鞏固其在AI基礎設施中的核心地位。

火線話題 | 輝達GTC宣告實體AI來了

這篇報導屬於「 輝達GTC宣告實體AI來了 」主題,更多延伸閱讀:

  1. 輝達GTC大會|LPU晶片終於亮相!委由三星代工 交付台積電更關鍵任務
  2. 研華GTC亮相!秀「機器人大腦」Jetson Thor平台 搶攻實體AI商機
  3. 記憶體瓶頸成AI關鍵!群聯GTC展示aiDAPTIV 支援邊緣AI長上下文推論
作者簡介

呂承哲

壹蘋新聞網財經科技記者,專注半導體、AI與新能源產業,追蹤台積電、輝達及台廠電子供應鏈動態,並解析市場投資趨勢。


點擊閱讀下一則新聞 點擊閱讀下一則新聞
領先台灣金融業!玉山金宣布導入永續財務資訊專章