緯穎總經理暨執行長林威遠表示,隨著AI應用快速發展,資料中心需要能夠整合運算、儲存、網路與液冷技術的機櫃級解決方案合作夥伴。憑藉端到端整合能力與製造實力,緯穎能將基於NVIDIA技術的最新平台更快推向市場,不僅提升每瓦效能,也協助客戶建立完整的AI基礎架構,在AI時代保持競爭優勢。
此次GTC展會,緯穎展示多項AI資料中心核心平台。其中,「NVIDIA Vera Rubin NVL72」為機櫃級全液冷架構,整合72顆NVIDIA Rubin GPU與36顆NVIDIA Vera CPU,主要針對大型AI模型訓練、推理與推論需求設計。緯穎和緯創是首批提供搭載NVIDIA Vera Rubin NVL72平台的公司之一,透過高度整合的系統設計,可大幅提升運算效率,並將每瓦效能提升至最高10倍,為未來AI工廠提供更高密度的算力與能源效率。
另一項展示產品為「NVIDIA HGX Rubin NVL8」,該平台搭載8顆NVIDIA Rubin GPU,採用無風扇全液冷設計的2U高密度系統,可提供優異的PUE表現。透過NVIDIA Spectrum-X Ethernet或Quantum-X800 InfiniBand網路架構,單一機櫃可擴展至8至16台系統,以滿足大規模AI運算與資料處理需求。
在AI工作負載應用方面,緯穎也展示「NVIDIA RTX PRO Server」,該系統採ARM架構,在2U空間中整合兩顆NVIDIA Vera CPU與兩張NVIDIA RTX PRO 4500 Blackwell GPU,每張GPU配備32GB GDDR7記憶體,主要鎖定神經網路渲染(Neural Rendering)與AI輔助設計(AI-driven Design)等應用場景。
緯穎亦展示「Storage-Next」GPU驅動儲存架構。該方案採用NVIDIA SCADA(Scaled Accelerated Data Access)技術,使GPU可直接協調多達96顆NVMe磁碟陣列的I/O運作,提供高IOPS與低延遲的資料存取能力,並支援PB等級高密度儲存。此架構適用於圖神經網路(GNN)、大型語言模型(LLM)推理以及檢索增強生成(RAG)等AI應用,同時整合液冷系統、硬碟遙測與多區域漏液偵測機制,以提升運作效率與維護能力。
在GTC 2026期間,緯穎也將參與專題論壇「Build an AI Ready Data Center: Practical Insights from YTL, Wiwynn, and NVIDIA」,分享AI資料中心部署經驗。論壇將聚焦從機櫃交付到叢集驗收的L11至L12整合工程,探討如何優化資料中心散熱、供電與維護設計,以加速AI基礎架構部署。
NVIDIA產品管理副總裁Kaustubh Sanghani表示,新一代AI創新將建立在高效能的機櫃級加速運算平台之上。透過在液冷基礎架構與機櫃級系統整合方面的技術能力,緯穎正將NVIDIA Vera Rubin平台導入全球資料中心,協助企業打造能支援訓練與推論規模擴展的AI工廠,迎接Agentic AI時代的運算需求。
點擊閱讀下一則新聞