聯發科技資訊工程本部全球資訊服務副處長黃博揚表示,聯發科去年底曾與NVIDIA共同發布AI算力相關消息,當時AI算力規模約為600億,如今已成長至1380億,顯示AI運算需求成長速度相當快速。
黃博揚指出,聯發科資料中心算力並不只是用於AI模型訓練,另一項核心用途其實是IC設計EDA運算,目前聯發科每年執行超過千億個EDA job,因此資料中心背後所需的不只是GPU,而是整體高效能運算基礎設施。
談到目前AI基礎建設挑戰,黃博揚坦言,今年最大的問題之一就是供應鏈壓力,包括memory、SSD等零組件供應都相當吃緊,隨著代理式AI(Agentic AI)快速發展,CPU也開始成為關鍵物料。他指出,目前供應鏈幾乎是「一環牽一環」,已成為全球IT基礎建設共同面臨的壓力。
黃博揚表示,目前B200 SuperPOD仍最適合聯發科現階段AI專案與研發需求,但聯發科並未綁定單一硬體供應商,而是透過多供應商競標模式,依照公開規格與KPI驗證結果決定合作對象,希望建立更健康的產業生態系。
此外,針對未來是否導入自家AI ASIC產品作為資料中心算力來源,黃博揚也直言,只要是最適合工作負載的方案,且產品由聯發科自行開發,「沒有理由不用」。他透露,聯發科目前已投入大量AI ASIC資源,未來仍會依照研發需求與產業變化持續調整布局。
點擊閱讀下一則新聞
台股衝新高!元大0050連兩天成交破百億 市值型績效強壓主動ETF