高通推出AI晶片與機櫃,試圖挑戰已經在AI資料中心占據重要地位的公司,包括輝達、AMD、博通等,讓公司股價27日大漲21.9%。高通還指出,AI200首位客戶是沙烏地阿拉伯AI新創公司Humain,預計在2026年為其建立200MW的算力。

高通說明,Qualcomm AI200 採機櫃級架構設計,鎖定大型語言與多模態模型(LLM、LMM)推論與其他 AI 工作負載,主打低總持有成本(TCO)與最適化效能。每張加速卡支援 768GB LPDDR,兼具更高記憶體容量與成本優勢,能靈活支援企業因應模型規模成長所需的快速擴展。

Qualcomm AI250則引入以近記憶體運算(near-memory computing)為核心的創新記憶體架構,能提供超過 10 倍有效記憶體頻寬,同時大幅降低功耗,在 AI 推論效能與能效上實現世代躍進。加上支援解耦式推論(disaggregated AI inferencing)模式,協助企業最大化硬體資源使用效率,並平衡效能與成本需求。

兩款 AI 機櫃均搭載直接液冷技術以提升散熱效率,並支援 PCIe 向上擴展與乙太網路向外擴展,整櫃耗電量為 160kW,同時加入機密運算(confidential computing)強化資料安全,使企業得以在不同規模的資料中心部署安全可信的推論服務。

高通技術規劃、邊緣解決方案與資料中心業務資深副總裁暨總經理 Durga Malladi 表示,AI200 與 AI250 正在重新定義機櫃級 AI 推論的可能性,讓企業以更具成本競爭力的方式部署生成式 AI,並兼具現代資料中心需要的彈性與安全。

高通強調,透過完整軟體堆疊與開放生態系統支援,使開發者與企業能更輕鬆整合、管理並擴展既有訓練模型。藉由與主流 AI 框架的無縫相容與一鍵部署能力,AI200 與 AI250 可協助客戶加速落地創新應用。

高通同時強化資料中心端的 AI 軟體堆疊,從應用層到系統層皆最佳化推論效能,並支援主要機器學習框架、推論引擎與生成式 AI 模型。此外,透過 Qualcomm Efficient Transformers Library 與 Qualcomm AI Inference Suite,開發者可快速導入 Hugging Face 模型並一鍵部署,並結合多項現成 AI 應用、智能代理、工具、函式庫與 API,加速企業營運面的 AI 落地。

Qualcomm AI200 與 AI250 分別預計於 2026 與 2027 年商用上市。高通強調,未來將持續以年度節奏推出資料中心 AI 產品,聚焦業界領先的推論效能、能源效率與 TCO 表現,全力搶攻快速成長的 AI 資料中心市場。


點擊閱讀下一則新聞 點擊閱讀下一則新聞
2萬8千點得而復失!台股開高走低跌收27,949.11點 台積電跌5元作收