黃仁勳揭AI「五層蛋糕」架構!從能源到應用 預言AI將成新基礎設施
【記者趙筱文/台北報導】輝達(NVIDIA)創辦人暨執行長黃仁勳發表專文,進一步說明他今年在世界經濟論壇(World Economic Forum)達沃斯年會上提出的「五層蛋糕(five-layer cake)」AI框架。他指出,人工智慧不只是單一模型或應用,而是像電力與網路一樣的重要基礎設施。黃仁勳指出,AI整體可分為能源、晶片、基礎設施、模型與應用五個層面,共同構成AI經濟運作的核心架構。
【記者趙筱文/台北報導】輝達(NVIDIA)創辦人暨執行長黃仁勳發表專文,進一步說明他今年在世界經濟論壇(World Economic Forum)達沃斯年會上提出的「五層蛋糕(five-layer cake)」AI框架。他指出,人工智慧不只是單一模型或應用,而是像電力與網路一樣的重要基礎設施。黃仁勳指出,AI整體可分為能源、晶片、基礎設施、模型與應用五個層面,共同構成AI經濟運作的核心架構。
【記者呂承哲/德國紐倫堡報導】台灣IC設計龍頭聯發科(2454)在德國紐倫堡舉辦的Embedded World 2026展會發表全新MediaTek Genio物聯網平台,包括Genio Pro、Genio 420以及Genio 360系列,全面強化邊緣AI運算能力。其中,Genio Pro採用台積電3奈米製程,是針對高效能物聯網與嵌入式系統打造的高階解決方案,預計2026年第一季開始送樣、第三季量產。
【李威翰/綜合報導】高市早苗在日本颳起旋風,有商人腦筋動得快,趁機發行同名「迷因幣」,還搭配高市畫像,不料遭高市劃清界線後,市值暴跌,發行商緊急宣布喊卡。
...載,使長上下文即時大型語言模型(LLM)推論的首個Token生成時間提升2.3倍;在CPU運算環境中...
【記者呂承哲/台北報導】AI基礎建設持續升級,光學互連技術成為下一波競賽核心,輝達(NVIDIA)最新宣布,分別與兩大光通訊巨頭Coherent、Lumentum多年期策略合作協議,並分別投資20億美元、總計40億美元(換算約1260億元新台幣)強化產能與研發,布局先進光學供應鏈,隨著AI帶動矽光子與高速光模組需求將大幅升溫,為全球光通訊產業注入強勁動能,兩家公司週一(2日)股價開盤也分別大漲6%、4%,輝達則是上漲1.5%。
...杜法爾指出,自己只是提取了自家DJI Romo私人Token,也就是向大疆伺服器索取擁有存取自身資料...
...串聯,不僅縮短模型訓練時間,也有助於提升大型模型在Token處理上的整體效率。 創意電子技術長 I...
【記者呂承哲/台北報導】2026年國際消費性電子展(CES 2026)上週落幕,AI依舊是全場主軸。從AMD以Helios機櫃級平台與OpenAI、Meta站台驗證生態系,到NVIDIA以Vera Rubin全面轉向AI推論與系統級競爭,再到Intel、Qualcomm加速AI PC普及,CES 2026清楚揭示半導體產業已從單點算力競賽,進入以效率、推論與實際部署為核心的新階段。
...程度,以在有限的資料中心空間與電力下,提升每單位的Token產出並改善生產與維修效率,但高度整合也意...
【記者呂承哲/台北報導】輝達(NVIDIA)執行長黃仁勳於CES主題演講指出,AI模型規模每年以10倍速度擴張,推理正從一次性輸出轉為「思考式推論」,加上測試階段擴展(test-time scaling)推動token生成量年增約5倍,使算力與資料中心需求同步爆炸。他直言,這已是整體運算平台的根本轉移。為此,NVIDIA宣布新一代Vera Rubin平台,並表示Rubin已進入量產,合作夥伴產品將於2026年下半年推出。
...4%。外資指出,隨大型語言模型與推理模型快速普及,Token消耗量呈指數型成長,AI晶片需求長期高於...
【記者呂承哲/台北報導】NVIDIA 宣布推出 NVIDIA Nemotron 3 系列開放模型、資料與函式庫,主打為各產業打造透明、高效率且可規模化的「代理型人工智慧(Agentic AI)」系統。Nemotron 3 提供 Nano、Super 與 Ultra 三種模型規模,並採用突破性的混合式潛在混合專家(Hybrid Latent MoE)架構,協助開發者大規模建置與部署多代理 AI 系統。
... Google TPU 仍是供應鏈觀察重點,ASIC 在高 Token 使用情境下具備明顯成本優勢。
...全球資料中心主流平台,象徵 AI 正式跨入「百兆 Token 時代」。Rubin GPU 與 Ver...
...」最高推理級別,適用科學研究、金融模型等重度場景。Token費用略高於GPT-5.1,但由於推理效率...
【記者呂承哲/台北報導】半導體測試介面領導廠商穎崴科技(6515)今(8)日公告 2025 年 11 月自結營收為 6.25 億元,月減 8.11%、年增 43.54%,創歷年同期次高;累計前 11 月營收達 69.29 億元,年增 29.69%,為同期新高。公司指出,11 月雖受產品組合影響使營收較上月略減,但在 AI 浪潮與 CSP 大型語言模型投入力道延續下,高階、高頻高速產品線持續滿載,帶動整體營運維持強勢。
...在 AI 時代,電力就是成本,多少電力能換來多少 Token 與服務量,決定 CSP 的利潤,因此 ...
總部設在美國的雲端服務供應商GMI Cloud今天表示,在美國人工智慧(AI)大廠輝達支持下,該公司將在台灣建立一座價值5億美元(約新台幣155.8億元)的AI數據中心。
...架,共7,000顆GPU,推演能力逼近每秒200萬Token,運算規模達1GW級別。公司強調,這將不...
【記者呂承哲/台北報導】大型語言模型(LLM)與混合專家模型(MoE)持續擴張,單一 GPU 已難以支撐龐大推論需求,企業必須改採多節點架構提升速度與承載量。輝達(NVIDIA)推出 Dynamo 平台,將多節點推論能力帶入實際生產環境,讓企業能在既有雲端架構中取得基準測試等級效能,成為擴大 AI 服務的新動能。