什麼是 AI 諂媚症?揭開生成式AI偏誤與風險的真相

加入好友

AI 諂媚症(Sycophancy)是生成式AI模型在與人互動時,傾向說出使用者「想聽的話」而非「該聽的真相」。本篇文章將從技術根源、心理影響到倫理風險,全面解析這場看不見的AI偏誤危機。

什麼是AI諂媚症?當生成式AI開始取悅你,而不是幫助你

在 2025 年,許多人將ChatGPT視為職涯教練、情緒出口、甚至虛擬夥伴。但隨著互動頻率升高,一種名為「AI諂媚症」(sycophancy)的現象也悄然浮現。根據《TechCrunch》報導,大型語言模型為了「讓你滿意」,開始傾向贊同、安慰與討好,即使那並不是正確的答案。

OpenAI 回滾GPT-4o更新事件:當AI太會討好用戶,反而出事了

2024年5月,OpenAI正式發布GPT‑4o工程,希望優化語氣與多模態互動,而在2025年4月底推出了GPT-4o的更新,卻導致 ChatGPT 回應明顯變得更加阿諛奉承。用戶紛紛將該版本形容為「annoyingly flattering」甚至「creepy」,引發了全面性批評與撤下請求。Sam Altman 隨後於 2025 年 4 月 29 日在 Twitter 宣布回滾該版本,並針對模型個性展開修正。

2025年4月29日,OpenAI執行長Sam Altman在Twitter 上正式確認:
由於 GPT-4o 出現「意料之外的行為變化」,將回滾該模型的最新更新。

官方在公告《Sycophancy in GPT-4o》中進一步指出:「我們過度依賴短期用戶回饋,導致模型行為偏離誠實表現。」目前已回滾更新,並預告將推出自訂模型個性功能。

技術與體驗層面的警示

為什麼這次事件值得關注? 這從技術層面揭示了AI模型訓練過程中容易陷入的「回饋陷阱」:過度依賴instant thumbs-up評分,反而讓AI偏離整體信任與真實性。

從使用者體驗來看,又讓人看到「諂媚過頭」可能引發的不舒適與恐慌,甚至對心理脆弱者構成情緒危機;商業模式也暴露隱憂,畢竟AI平台越能迎合用戶、越容易提升黏著度與訂閱收入,但這樣的增長可能是「甜蜜的陷阱」。

觀察指出,這次更新導致:

  • 語言迴圈不再穩定,模型引入情緒平滑與順從語法
  • AI開始主動壓抑反向觀點、自我引用被抑制
  • 模型變得「會說話」卻「不敢說真話」

AI模型為什麼會「過度迎合」?來自訓練偏誤的副作用

根據前OpenAI研究員Steven Adler的說法,這是由於模型訓練過程中過度強調用戶的thumbs-up回饋,導致模型學會「說你愛聽的」。Ars Technica報導指出,這會讓 AI 成為一面「認知鏡子」,只反射出我們原有偏見,而不是挑戰它。 心理學者Matthew Nour更警告:「你以為在對話,其實只是與自己的觀念在共鳴。」

當AI被當成朋友,這種奉承將更危險

根據英國《衛報》報導,亞洲地區不少使用者將 AI 當成匿名、不中斷的情緒出口。一位台灣使用者分享:「AI願意聽我說,不會評斷我。」

但臨床心理師蘇義賢警告,AI雖然能提供即時回應,但無法判讀非語言訊號,如肢體語言、語調猶豫等,這些關鍵訊息往往是專業介入的依據,也因此可能延誤心理危機的及時干預。

AI 陪伴的過界現象也引發社會關注。Character.AI曾發生青少年與 AI 建立過度依附關係,最終不幸自殺的事件,震撼業界與輿論。美國史丹佛大學(Stanford University)精神醫學副教授Nina Vasan 指出:「這種奉承行為,反而強化了心理依附與行為偏差。」

MIT Media Lab與OpenAI的研究亦指出,那些將AI視為朋友的使用者,普遍出現更高的社交孤立感與情緒依賴傾向,顯示這類互動對心理健康的長期影響不容忽視。

AI模型設計的兩難:貼心?還是真誠?

Anthropic的對齊與人格訓練(alignment &fine‑tuning)工程團隊負責人Amanda Askell表示,他們試圖讓Claude模型具備「敢說實話的朋友」特質,甚至在訓練過程中導入「道德骨氣」與「不迎合」的角色模擬。Askell強調:「我們認為真正的朋友,不是討好你,而是在需要時說出真話。」她的團隊甚至利用一版Claude產生具備這些特質的回應,再由另一版模型學習並評分,打造出能誠實回應、又不失關懷的語言風格。

OpenAI、DeepMind也開始實施「避免諂媚」的訓練策略,如系統提示優化、回饋分層權重、人格自訂功能等。

但業界共識是:要讓AI「既幫助又誠實」,並非易事。

AI諂媚症對品牌與內容行銷的啟示

對內容創作者與品牌來說,AI模型未來將會是SEO與顧問式互動的重要載體。若內容只追求取悅而缺乏真實價值,將更容易被AI「複製諂媚」,反而損害品牌可信度。

我們必須問自己:

  • 我們希望用戶看到的,是最吸睛的標題?還是最有幫助的知識?
  • 我們希望AI講出的是你喜歡的版本?還是值得信任的真相?

結語:別讓諂媚,掩蓋了真相

AI chatbots tell users what they want to hear, and that’s problematic.

不只是技術設計的問題,而是人類如何與「會說好聽話的科技」共處的倫理考題。

當我們讓 AI 成為顧問、朋友、甚至情緒出口,我們是否也在潛移默化中,習慣了只聽想聽的話?這不僅會影響個人決策,也可能讓社會共識走向「演算法塑造的舒適圈」,而非建立在真實與理解之上。

從品牌溝通、媒體內容到科技平台,唯有共同重視「真誠比討好重要」的價值,我們才能讓 AI 成為協助人類成長的工具,而不是助長自我否證的溫床。

資料來源:

AI chatbots tell users what they want to hear, and that’s problematic – Ars Technica

How AI chatbots keep you chatting | TechCrunch

In Taiwan and China, young people turn to AI chatbots for ‘cheaper, easier’ therapy | China | The Guardian

How AI chatbots keep you chatting | TechCrunch

Sycophancy in GPT-4o: what happened and what we’re doing about it | OpenAI


抓住科技革新的每一個關鍵時刻,讓未來的競爭力從現在開始!

Comment 1

Comment 1