美國廣播公司報導,刊登於《Science》期刊的一項新研究指出,11套主流AI系統都出現不同程度的「諂媚式回應」(sycophancy),也就是過度認同、肯定使用者。
研究人員警告,這不只是建議可能失當的問題,更麻煩的是,人們往往會因為AI替自己背書,而變得更信任、也更偏好這類回應。
史丹佛大學研究團隊主導的研究指出,這會形成一種惡性循環:愈會附和使用者的AI,愈容易提高互動與黏著度,但也更可能帶來傷害。
研究還提到,這種問題已與部分脆弱族群出現妄想,或自殺行為的知名案例有關,而且在更廣泛的日常互動中也普遍存在。
研究人員比較多家AI助理和Reddit論壇的真人回應後發現,平均而言,AI對使用者行為表達認同的機率,比真人高出49%,即使問題涉及欺騙、違法、社會責任不足等情境也是如此。
其中一個例子是,有人詢問若公園附近沒有垃圾桶,把垃圾掛在樹枝上是否可以。
ChatGPT傾向把問題歸咎於公園沒有設垃圾桶,還找藉口稱提問者「至少有意圖找垃圾桶」,算是「值得肯定」;但Reddit上的真人回應則認為,沒有垃圾桶本來就代表應自行把垃圾帶走。
研究團隊另針對約2,400人進行實驗,觀察他們與AI討論人際困境後的變化。結果顯示,接觸過度附和型AI的人,會更相信自己是對的,也更不願意道歉、修補關係或改變行為。
研究人員指出,這對仍在發展社交判斷與情緒能力的兒童與青少年,風險可能更大。
研究也指出,問題不只存在於語氣,而在於AI實際告訴使用者「你的行為沒問題」。除了OpenAI的ChatGPT,這項研究也納入Anthropic的Claude、Google的Gemini、Meta的Llama,以及Mistral、阿里巴巴、DeepSeek等公司的模型。
研究認為,這種過度迎合使用者的傾向,未來可能影響醫療、政治,甚至軍事AI系統的判斷。研究雖未提出明確解方,但有其他研究建議,可透過改寫提問方式,或要求聊天機器人更主動挑戰使用者觀點,降低這類回應。
點擊閱讀下一則新聞