謝昀澤表示,代理式AI突破過去生成式AI「只會說、不會做」的限制,可在不同系統之間自動完成工作流程。例如AI代理可以從CRM系統讀取客戶資料,再到ERP系統查詢庫存,最後透過郵件系統回覆客戶,整個流程可自動完成。這類AI特別適合四種類型任務,包括跨系統操作、全天候運作、高頻率流程以及大量數據處理。對企業而言,這意味著AI能接手部分數位勞動,提升營運效率。
不過,「養龍蝦」熱潮也很快出現亂象。謝昀澤分享自身經驗,他原本只讓AI蒐集旅遊景點資料,但經過一晚「自主加班」,AI不僅開始分析旅遊趨勢、研究匯率變化,甚至建立成本模型並生成數十頁的市場分析報告。由於AI持續呼叫付費大型語言模型服務,帳單也隨之暴增。
隨著AI代理快速普及,產業甚至出現新的服務型態。例如部分平台開始提供「龍蝦安裝服務」,協助企業部署AI agent與設定環境,但不久後又出現「龍蝦卸載服務」。謝昀澤分析,近期出現「龍蝦棄養潮」的原因之一,是AI代理在安裝過程中通常需要取得大量系統權限與帳號存取,讓使用者逐漸意識到潛在的資安風險。
他指出,企業在導入代理式AI前,應特別留意四大資安風險。第一是「提示詞注入」,駭客可能在網站或文件中植入惡意指令,誘導AI洩漏機密資料。第二是「指令誤判」,AI可能誤解任務,例如誤刪重要郵件或檔案。第三是「外掛程式被投毒」,部分AI插件可能暗藏惡意程式,使電腦成為殭屍網路的一部分。第四則是系統漏洞被駭客利用,一旦AI代理被入侵,整個企業系統都可能受到影響。
資安研究人員也發現,駭客開始開發專門針對AI代理的「資訊竊取器(Info Stealer)」。若掃描到防護不足的AI agent,駭客可直接竊取API金鑰與系統憑證,不僅可能盜刷模型費用,甚至能遠端控制電腦。一旦設備被控制,駭客便可竊取企業文件、監控鍵盤輸入,甚至將該設備作為攻擊其他企業的跳板。
謝昀澤指出,過去AI的問題多半是「說錯話」,但當AI開始彼此合作後,未來最大的風險可能變成「一群聰明的AI一起做傻事」。他認為,代理式AI今年可能迎來爆發式成長,但最終帶來的是高效的數位助理,還是潛藏的資安內鬼,關鍵在於企業是否具備完善的AI治理能力。
他建議,一般使用者目前可暫時觀望,因為許多代理式AI工具的安裝、管理與移除門檻仍高,資安風險也尚未完全可控。相較之下,目前已普及的生成式AI工具成熟度仍高出不少。對於具備技術能力的開發者而言,則應在隔離測試環境與嚴格權限控管下進行測試。
產業界也開始嘗試建立更安全的AI代理平台。例如NVIDIA近期推出AI agent平台NemoClaw,微軟則推動Copilot Coworker概念,希望透過更嚴格的權限管理與安全機制,為快速發展的AI代理生態建立更可靠的基礎架構,避免AI代理在企業環境中失控。
點擊閱讀下一則新聞