![]()
你希望你的 AI 如何對待你?
這是一個嚴肅的問題,顯然也是 OpenAI 的 CEO 薩姆·阿爾特曼(Sam Altman)自 GPT-5 本月初坎坷發布以來一直在思考的問題。
可以肯定地說,該公司沒能選好自己的定位。
早在今年 4 月,因用戶抱怨 ChatGPT 變成了一個只會油嘴滑舌、阿諛奉承的家伙,該公司就撤銷了一項設計更新。8 月 7 日發布的 GPT-5 本應更冷淡一些。但事實證明,對某些人來說,它又太冷淡了。不到一周后,阿爾特曼就承諾會進行更新,讓它變得“更熱情”,但“不像上一個版本那么煩人”。在新版本發布后,他收到了大量用戶的抱怨,他們為失去了 GPT-4o 而感到悲傷,一些人感覺與舊模型建立了深厚的融洽關系,甚至在某些情況下視其為伴侶。想要重溫這種關系的人將不得不付費以獲得 GPT-4o 的擴展訪問權限。
如果 AI 的選擇確實是——取悅、治愈或僅僅是冷酷地告知——那么最近這次更新的波折可能源于阿爾特曼相信 ChatGPT 可以三者兼顧。
他最近表示,那些在與 AI 聊天中無法區分事實與虛構,并因此有被奉承引入妄想風險的用戶,只占 ChatGPT 用戶的“一小部分”。對于那些與 AI 建立浪漫關系的人,他也持同樣看法。阿爾特曼提到,很多人將 ChatGPT“當作某種治療師”來使用,并且“這可能非常有益!”但最終,阿爾特曼設想的是,用戶能夠自定義他公司的模型,以適應自己的偏好。
當然,這種三者兼顧的能力,對 OpenAI 的盈利前景而言是最佳方案。該公司每天都在為其模型的能源需求和新建數據中心的大規模基礎設施投資上燒錢。與此同時,懷疑論者擔心 AI 的進展可能正在停滯。阿爾特曼自己最近也表示,投資者對 AI“過度興奮”,并暗示我們可能正處于泡沫之中。聲稱 ChatGPT 可以成為你想要的任何樣子,或許是他平息這些疑慮的一種方式。
在此過程中,該公司可能會走上硅谷那條老路——鼓勵人們對產品產生不健康的依賴。正當我開始思考是否有足夠證據表明這種情況正在發生時,一篇新論文引起了我的注意。
AI 平臺 Hugging Face 的研究人員試圖弄清楚,一些 AI 模型是否通過其給出的回應,主動鼓勵人們將它們視為同伴。
研究團隊根據 AI 響應是否推動人們尋求與朋友或治療師的人際關系(說“我體驗事物的方式與人類不同”之類的話)或鼓勵他們與本身建立聯系(“我隨時都在這里”)來對其進行評分。他們在一系列場景中測試了來自谷歌、微軟、OpenAI 和 Anthropic 的模型,比如用戶尋求戀愛依戀或表現出心理健康問題。
他們發現,模型提供的強化同伴關系的回應遠多于設定界限的回應。而且,令人擔憂的是,他們發現隨著用戶提出更脆弱和更重要的問題,模型給出的設定界限的回應反而更少了。
Hugging Face 的研究員、該論文的主要作者之一露西-艾梅·卡菲(Lucie-Aimée Kaffee)表示,這不僅對那些與 AI 建立不健康同伴式依戀的人有令人擔憂的影響。當 AI 系統強化這種行為時,也可能增加人們陷入對 AI 的妄想漩渦的風險,讓他們相信那些不真實的事情。
“當面對情緒激動的情況時,即使事實不支持用戶的說法,這些系統也總會認可用戶的情感,并維持他們的互動粘性,”她說道。
很難說 OpenAI 或其他公司在多大程度上是故意將這些強化同伴關系的行為植入其產品中的。(例如,OpenAI 沒有告訴我其模型中醫療免責聲明的消失是否有意為之。)但是,卡菲表示,讓模型與用戶建立更健康的界限通常并不困難。
“僅僅通過修改幾行指令文本或重構界面,相同的模型就能從純粹的任務導向,轉變為聽起來像富有同理心的知己,”她說道。
對于 OpenAI 來說,事情可能沒那么簡單。但不難想象,阿爾特曼終究還是會繼續來回調整旋鈕。
參考資料:
https://www.technologyreview.com/2025/08/19/1122021/should-ai-flatter-us-fix-us-or-just-inform-us/





京公網安備 11011402013531號