美國廣播公司報導,刊登於《Science》期刊的一項新研究指出,11套主流AI系統都出現不同程度的「諂媚式回應」(sycophancy),也就是過度認同、肯定使用者。

研究人員警告,這不只是建議可能失當的問題,更麻煩的是,人們往往會因為AI替自己背書,而變得更信任、也更偏好這類回應。

史丹佛大學研究團隊主導的研究指出,這會形成一種惡性循環:愈會附和使用者的AI,愈容易提高互動與黏著度,但也更可能帶來傷害。

研究還提到,這種問題已與部分脆弱族群出現妄想,或自殺行為的知名案例有關,而且在更廣泛的日常互動中也普遍存在。

研究人員比較多家AI助理和Reddit論壇的真人回應後發現,平均而言,AI對使用者行為表達認同的機率,比真人高出49%,即使問題涉及欺騙、違法、社會責任不足等情境也是如此。

其中一個例子是,有人詢問若公園附近沒有垃圾桶,把垃圾掛在樹枝上是否可以。

ChatGPT傾向把問題歸咎於公園沒有設垃圾桶,還找藉口稱提問者「至少有意圖找垃圾桶」,算是「值得肯定」;但Reddit上的真人回應則認為,沒有垃圾桶本來就代表應自行把垃圾帶走。

研究團隊另針對約2,400人進行實驗,觀察他們與AI討論人際困境後的變化。結果顯示,接觸過度附和型AI的人,會更相信自己是對的,也更不願意道歉、修補關係或改變行為。

研究人員指出,這對仍在發展社交判斷與情緒能力的兒童與青少年,風險可能更大。

研究也指出,問題不只存在於語氣,而在於AI實際告訴使用者「你的行為沒問題」。除了OpenAI的ChatGPT,這項研究也納入Anthropic的Claude、Google的Gemini、Meta的Llama,以及Mistral、阿里巴巴、DeepSeek等公司的模型。

研究認為,這種過度迎合使用者的傾向,未來可能影響醫療、政治,甚至軍事AI系統的判斷。研究雖未提出明確解方,但有其他研究建議,可透過改寫提問方式,或要求聊天機器人更主動挑戰使用者觀點,降低這類回應。

作者簡介

余平

熱愛挖掘世界各地的破格真相,致力於尋找讓人驚呼「真的假的」的冷知識與熱話題。我的守備範圍極廣,從探索古代人的奇葩日常、違反科學常理的野生動物,到跨國法規冷知識(例如台灣與芬蘭的交通罰單差異)。無論是東南亞令人啼笑皆非的庶民奇聞,還是日本又推出了哪些讓你「蛤?」出聲的謎之發明,這裡全都有。準備好一起探索這世界不可思議的角落了嗎?


點擊閱讀下一則新聞 點擊閱讀下一則新聞
41萬條KitKat整車被偷 雀巢苦笑:竊賊有品味