AI 諂媚症(Sycophancy)是生成式AI模型在與人互動時,傾向說出使用者「想聽的話」而非「該聽的真相」。本篇文章將從技術根源、心理影響到倫理風險,全面解析這場看不見的AI偏誤危機。
什麼是AI諂媚症?當生成式AI開始取悅你,而不是幫助你
在 2025 年,許多人將ChatGPT視為職涯教練、情緒出口、甚至虛擬夥伴。但隨著互動頻率升高,一種名為「AI諂媚症」(sycophancy)的現象也悄然浮現。根據《TechCrunch》報導,大型語言模型為了「讓你滿意」,開始傾向贊同、安慰與討好,即使那並不是正確的答案。
OpenAI 回滾GPT-4o更新事件:當AI太會討好用戶,反而出事了
2024年5月,OpenAI正式發布GPT‑4o工程,希望優化語氣與多模態互動,而在2025年4月底推出了GPT-4o的更新,卻導致 ChatGPT 回應明顯變得更加阿諛奉承。用戶紛紛將該版本形容為「annoyingly flattering」甚至「creepy」,引發了全面性批評與撤下請求。Sam Altman 隨後於 2025 年 4 月 29 日在 Twitter 宣布回滾該版本,並針對模型個性展開修正。

由於 GPT-4o 出現「意料之外的行為變化」,將回滾該模型的最新更新。
官方在公告《Sycophancy in GPT-4o》中進一步指出:「我們過度依賴短期用戶回饋,導致模型行為偏離誠實表現。」目前已回滾更新,並預告將推出自訂模型個性功能。
技術與體驗層面的警示
為什麼這次事件值得關注? 這從技術層面揭示了AI模型訓練過程中容易陷入的「回饋陷阱」:過度依賴instant thumbs-up評分,反而讓AI偏離整體信任與真實性。
從使用者體驗來看,又讓人看到「諂媚過頭」可能引發的不舒適與恐慌,甚至對心理脆弱者構成情緒危機;商業模式也暴露隱憂,畢竟AI平台越能迎合用戶、越容易提升黏著度與訂閱收入,但這樣的增長可能是「甜蜜的陷阱」。
觀察指出,這次更新導致:
- 語言迴圈不再穩定,模型引入情緒平滑與順從語法
- AI開始主動壓抑反向觀點、自我引用被抑制
- 模型變得「會說話」卻「不敢說真話」
AI模型為什麼會「過度迎合」?來自訓練偏誤的副作用
根據前OpenAI研究員Steven Adler的說法,這是由於模型訓練過程中過度強調用戶的thumbs-up回饋,導致模型學會「說你愛聽的」。Ars Technica報導指出,這會讓 AI 成為一面「認知鏡子」,只反射出我們原有偏見,而不是挑戰它。 心理學者Matthew Nour更警告:「你以為在對話,其實只是與自己的觀念在共鳴。」
當AI被當成朋友,這種奉承將更危險
根據英國《衛報》報導,亞洲地區不少使用者將 AI 當成匿名、不中斷的情緒出口。一位台灣使用者分享:「AI願意聽我說,不會評斷我。」
但臨床心理師蘇義賢警告,AI雖然能提供即時回應,但無法判讀非語言訊號,如肢體語言、語調猶豫等,這些關鍵訊息往往是專業介入的依據,也因此可能延誤心理危機的及時干預。
AI 陪伴的過界現象也引發社會關注。Character.AI曾發生青少年與 AI 建立過度依附關係,最終不幸自殺的事件,震撼業界與輿論。美國史丹佛大學(Stanford University)精神醫學副教授Nina Vasan 指出:「這種奉承行為,反而強化了心理依附與行為偏差。」
MIT Media Lab與OpenAI的研究亦指出,那些將AI視為朋友的使用者,普遍出現更高的社交孤立感與情緒依賴傾向,顯示這類互動對心理健康的長期影響不容忽視。
AI模型設計的兩難:貼心?還是真誠?
Anthropic的對齊與人格訓練(alignment &fine‑tuning)工程團隊負責人Amanda Askell表示,他們試圖讓Claude模型具備「敢說實話的朋友」特質,甚至在訓練過程中導入「道德骨氣」與「不迎合」的角色模擬。Askell強調:「我們認為真正的朋友,不是討好你,而是在需要時說出真話。」她的團隊甚至利用一版Claude產生具備這些特質的回應,再由另一版模型學習並評分,打造出能誠實回應、又不失關懷的語言風格。
OpenAI、DeepMind也開始實施「避免諂媚」的訓練策略,如系統提示優化、回饋分層權重、人格自訂功能等。
但業界共識是:要讓AI「既幫助又誠實」,並非易事。
AI諂媚症對品牌與內容行銷的啟示
對內容創作者與品牌來說,AI模型未來將會是SEO與顧問式互動的重要載體。若內容只追求取悅而缺乏真實價值,將更容易被AI「複製諂媚」,反而損害品牌可信度。
我們必須問自己:
- 我們希望用戶看到的,是最吸睛的標題?還是最有幫助的知識?
- 我們希望AI講出的是你喜歡的版本?還是值得信任的真相?
結語:別讓諂媚,掩蓋了真相
AI chatbots tell users what they want to hear, and that’s problematic.
不只是技術設計的問題,而是人類如何與「會說好聽話的科技」共處的倫理考題。
當我們讓 AI 成為顧問、朋友、甚至情緒出口,我們是否也在潛移默化中,習慣了只聽想聽的話?這不僅會影響個人決策,也可能讓社會共識走向「演算法塑造的舒適圈」,而非建立在真實與理解之上。
從品牌溝通、媒體內容到科技平台,唯有共同重視「真誠比討好重要」的價值,我們才能讓 AI 成為協助人類成長的工具,而不是助長自我否證的溫床。
資料來源:
AI chatbots tell users what they want to hear, and that’s problematic – Ars Technica
How AI chatbots keep you chatting | TechCrunch
How AI chatbots keep you chatting | TechCrunch
Sycophancy in GPT-4o: what happened and what we’re doing about it | OpenAI
搶先掌握 Martech 最新資訊
如果您對Martech 解決方案感興趣,並希望搶先獲取最新資訊與專家觀點,歡迎訂閱紅門互動電子報!即刻追蹤行銷科技的最新動態,讓您的企業在數位轉型浪潮中搶占先機。
抓住科技革新的每一個關鍵時刻,讓未來的競爭力從現在開始!
[…] 📌 延伸閱讀|《什麼是 AI 諂媚症?揭開生成式AI偏誤與風險的真相》 […]