聯發科銅鑼研發資料中心自2023年開始規劃建置,整體採三期設計,目前第一期已正式完工啟用,涵蓋機房棟、冷卻系統、高壓電力設施與發電機房等核心基礎建設。整體資料中心每一期規模為15MW,三期總容量達45MW,後續將依照AI與研發需求持續擴充。
聯發科技資訊工程本部全球資訊服務副處長黃博揚表示,該資料中心並非單純機房建築,而是結合算力、設施、維運與研發需求的長期投資,聯發科未來仍將持續投入資料中心與AI算力建設,以支援AI與IC設計研發需求。
在AI算力平台方面,黃博揚指出,目前聯發科採用NVIDIA B200 SuperPOD作為核心AI運算平台,強調「聯發科是台灣第一座B200 SuperPOD」。他表示,透過多運算節點整合與擴充,目前資料中心每月AI語言模型運算量已超過1380億token,模型訓練迭代次數每月也超過2.4萬次,以支援聯發科技全球AI業務持續成長。
黃博揚透露,聯發科去年底曾與NVIDIA共同發布AI算力相關消息,當時AI算力規模約為600億,如今已提升至1380億,顯示AI運算需求成長速度相當快速。不過他也指出,資料中心算力不僅用於AI模型訓練,另一項核心用途其實是IC設計EDA運算,目前聯發科每年執行超過千億個EDA job。
針對未來GPU與AI基礎設施布局,黃博揚表示,目前B200 SuperPOD仍最適合聯發科現階段AI專案與研發需求,但聯發科也會持續觀察AMD、Amazon、Meta與其他ASIC方案發展,並依據內部工作負載需求進行評估。他強調,聯發科並未綁定單一硬體供應商,而是透過多供應商競標模式,依照公開規格與KPI驗證結果決定合作對象。
點擊閱讀下一則新聞
普發1萬ATM領現者大增63萬人 2.6萬人「少做1動作」領取失敗無法補救