曾冠瑋指出,多家 CSP 已討論,一旦電力供應無法如期到位,與其持續 over booking 晶片,不如先下修採購、調整 AI 伺服器部署節奏,以免硬體到手卻無電可用。過去電力設施約占整體資本支出的 10%,但如今已有 CSP 思考 2027 年是否將比重提高至 25%。他認為,這並非市場所稱的AI泡沫破裂,而是投資週期的節奏調整,CSP 逐漸從「算力最大化」轉向「供電可行性」與營運效率,可能會變相地去減少在晶片的需求。
外界關注 ASIC 與 GPU 的競爭,曾冠瑋分析,Google TPU 等客製晶片雖形成新勢力,由 Google 進行系統整合,再由 Broadcom 微調 TPU 規格,等於讓 Broadcom 多了一個「二階客戶」,但晶片最終仍屬 Google 所有。他強調,ASIC 多為特定團隊量身打造,彈性受限;相較之下,GPU 的世代演進速度始終領先 ASIC 一代以上,且能支援更多樣的 AI 模型,因此 GPU 仍是通用算力主力,ASIC 則鎖定特定需求。
曾冠瑋預期,未來兩年 CSP 的資本支出將更重視電力與冷卻設施,AI 晶片採購節奏將依電力建設進度調整。隨著 ASIC 與 GPU 分工明確,雲端 ASIC 成長仍侷限於特定模型與客製化場景,而 GPU 在大型模型與多模態應用中的主導地位短期難以撼動。同時,AI 加速器製造的重要性提高,台積電與 OSAT 廠商在供應鏈中的價值更加凸顯。
他強調,這些變化不代表 AI 投資降溫,而是供應鏈走向更成熟的分工模式。AI 發展將不再只是比拚 GPU 拉貨量,而是比拚誰能在電力、算力與製造等限制下取得最佳擴張效率。他認為,AI 下一階段是「效率戰」而非「衝量戰」,能在新的平衡點上找到合適節奏的企業,才是真正的勝出者。
點擊閱讀下一則新聞