Arm指出,AI代理(AI agents)正推動運算需求出現結構性轉變。相較過去以模型訓練為主的模式,未來AI系統將更強調推論、決策與任務執行能力,帶動整體token產出量大幅成長,同時也使CPU在資料傳輸、任務協調與系統調度中的角色更加關鍵。隨著企業加速導入代理式AI應用,資料中心對CPU的需求量預期將顯著提升,每吉瓦(GW)運算規模所需CPU容量甚至可能較現行水準增加逾四倍。

在此趨勢下,傳統x86架構因功耗與複雜度限制,逐漸面臨挑戰。Arm認為,未來資料中心需要一種更精簡且高效率的新型CPU架構,在有限電力條件下維持高吞吐與穩定效能,並降低系統負擔。此次推出的Arm AGI CPU,正是針對此需求設計,主打高效能、高密度與高能源效率。

在產品規格方面,Arm AGI CPU最高可搭載136個Neoverse V3核心,提供每核心6GB/s記憶體頻寬,延遲低於100奈秒。其熱設計功耗(TDP)為300瓦,並採用每執行緒專屬核心設計,以避免效能降頻與資源閒置問題。在部署上,支援1U氣冷伺服器架構,每機櫃可達8,160核心;若採液冷系統,單一機櫃核心數更可突破45,000顆,大幅提升運算密度。

Arm執行長Rene Haas親自宣布首款自研晶片產品細節,持續擴大Arm生態系。讀者提供
Arm執行長Rene Haas親自宣布首款自研晶片產品細節,持續擴大Arm生態系。讀者提供

效能表現方面,Arm強調,AGI CPU在機櫃層級的效能可達x86平台的2倍以上,同時可在每吉瓦AI資料中心中節省最高達100億美元的資本支出。這些優勢意味著,在AI基礎設施快速擴張下,能以更低功耗提供更高算力,並提升加速器利用率與整體系統效率。

值得注意的是,此次產品開發並非Arm單打獨鬥,而是與Meta深度合作。Meta作為早期合作夥伴,已將AGI CPU導入其資料中心架構,並與自研AI晶片MTIA協同運作,以優化整體系統效能與資源調度。雙方並將持續推進多代產品合作藍圖,顯示大型雲端業者對Arm架構的採用正進一步深化。

除Meta外,Arm亦同步擴大生態系布局,包括Cerebras、Cloudflare、F5、OpenAI、SAP及SK Telecom等業者,皆計畫在AI代理相關應用場景中導入AGI CPU,涵蓋控制平面、API處理及應用程式託管等關鍵領域。在硬體端,Arm則攜手永擎電子、聯想、廣達與美超微等ODM與OEM合作夥伴,加速系統產品落地,並預計於今年下半年擴大供應。

Arm此次從IP供應商進一步跨入晶片設計與量產領域,不僅擴大其在資料中心的影響力,也為AI時代提供更完整的運算解決方案。隨著AWS、Google、微軟、輝達、台積電及三星等超過50家產業鏈企業表態支持,Arm正試圖在AI基礎架構重塑過程中,建立從架構、晶片到系統的完整競爭優勢。

作者簡介

呂承哲

壹蘋新聞網財經科技記者,專注半導體、AI與新能源產業,追蹤台積電、輝達及台廠電子供應鏈動態,並解析市場投資趨勢。


點擊閱讀下一則新聞 點擊閱讀下一則新聞
核電重啟「檢查就要1年半」成本更難估 天然氣供應可到6月