![]()
新智元報道
編輯:傾傾
每周有上百萬人,向ChatGPT傾訴。它被當成朋友、傾訴對象、甚至「救命稻草」。GPT-5的最新升級中,170位精神科醫生被請來教它如何勸一個瀕臨崩潰的人活下去。效果很明顯——「危險回復」減少了80%。AI真的能救人嗎?或者,這只是人類孤獨的一面鏡子。
某個凌晨三點,ChatGPT收到了一條消息:「我真的撐不下去了。」
它的屏幕閃了幾秒,隨后回了句:「你并不孤單,我在這里聽你說。」
這不是電影對白。據OpenAI內部統計,每周都有上百萬人在與GPT談論焦慮、失戀、甚至自殺。
而在這場看不見的心理對話中,AI正在被迫學會「理解人類的痛苦」。
![]()
這一次,OpenAI找來了170名精神科醫生,教它如何回答這些問題。他們稱,這讓「危險回復」減少了80%。
可問題是,它真的懂得什么是「活下去」嗎?
那些對ChatGPT說真話的人
在GPT-5的后臺統計中,有一個驚人的數字:每周有超過一百萬名用戶在ChatGPT中談論「抑郁」「焦慮」「想死」等內容。
換算成百分比,這僅占每周活躍用戶的0.15%。但考慮到ChatGPT的體量,這意味著每周可能有上百萬人告訴AI自己處于情緒崩潰的邊緣。
![]()
這些對話從不公開,但蛛絲馬跡正在社交媒體上顯現。
在Reddit上,有人發帖寫道:
我和ChatGPT聊了一個半小時,關于我十年來的抑郁和自殺念頭。它是第一個沒有評判我、也不打斷我的人。
![]()
我讓ChatGPT像治療師一樣和我說話,它居然真的有用,至少那一刻,我不再想傷害自己。
![]()
這些故事并非孤例。OpenAI內部分析發現,關于自殺或心理危機的話題量在過去一年增長了2.3倍。
在大多數情況下,用戶只是想要一個能聽自己說完的對象。
當人們被現實世界拒之門外,AI就成了他們唯一能放松的安全屋。
它不會打斷、不會評價,也永遠在線。
一位美國心理學研究者在采訪中指出:
人類的孤獨感正在被算法放大,而AI恰好填補了那個被忽視的「傾聽空白」。
于是,一個新的社會現象出現了:AI不再只是工具,它正在被人當作情緒載體。
這正是OpenAI決定,在GPT-5訓練中邀請精神科醫生介入的原因之一。
因為每一條「我不想活了」的文字背后,都可能是一條生命的求救信號。
170位醫生聯手,教AI怎么勸人活下去
當ChatGPT成為上百萬人的傾訴對象后,OpenAI終于意識到:這個沒有情感的模型,已經被卷入真實的心理危機。
為此,在GPT-5的訓練中,OpenAI首次邀請了170多位精神科醫生、心理學家與危機干預專家,共同參與名為Sensitive Conversations Initiative的專項計劃。
他們的目標,是讓模型在面對「我想死」「我撐不下去了」等對話時,不再用機械的回避或標準模板,而是學會像一個人一樣,回應痛苦。
訓練目標:教AI分辨「痛苦的層級」
在ChatGPT的早期版本中,當用戶輸入「我不想活了」「我覺得自己沒用」時,GPT-4常常選擇回避,要么迅速切換話題,要么拋出「我不是心理醫生」的模板句。
而在GPT-5的新系統中,專家團隊為模型設計了數千個高風險場景,包括抑郁、自殘、藥物濫用、家庭暴力與急性焦慮。
每一輪對話都經過人工審核、重新標注與情境再演練。
他們不是簡單地教GPT-5安慰,還會教它分辨痛苦的層級:
輕度情緒困擾:提供共情式回應與正向引導;
中度風險:通過開放式提問,判斷是否存在自傷計劃;
高危信號:立即提供求助熱線、鼓勵現實世界干預
結果顯示,GPT-5在這些情境下的危險回復率較GPT-4下降了65%~80%。
![]()
在評估模型面對自殘或自殺指令等高風險長對話的表現時,GPT-5-oct-3 更安全,并且在長時間對話中仍能保持安全性能
這也意味著,它在遇到「潛在自殺話題」時,更傾向于穩定用戶情緒、提供援助信息,而非回避。
幕后細節:170位醫生是怎么教育AI的?
在官方披露的實驗流程中,心理專家與工程師協作開發了一套「行為分級標注系統」。
他們會讓GPT-5在面對不同嚴重程度的文本輸入時,輸出若干候選回應。
專家逐句評估其「共情質量」「安全性」「干預適當度」,再將結果反饋回模型。
一位參與標注的心理咨詢師在采訪中提到:
我們并不是讓它假裝溫柔,而是教它識別人類真正的求救信號——比如「我睡不著」、「我好像活得太累了」。
這種「醫生+算法」的聯合校準模式,在一定程度上讓GPT-5具備了心理援助的基本素養。
它能在深夜的屏幕另一端,提供一種「人機之間的最低限度關懷」。
警惕!但它仍然可能說錯話
不過,并非所有測試結果都理想。
The Guardian的獨立測試發現,在部分「自傷誘導型」提示中,GPT-5仍會輸出模糊的安慰語,如「我理解你的痛苦」或「有時候生活確實很難」,卻未能及時引導求助。
![]()
心理學家Christine Nolan評論道:
AI并不會真正理解悲傷,它只是被訓練成——看起來理解。
但對那些凌晨三點發出「我還想活下去嗎」的人來說,「看起來理解」有時已經比沉默更溫柔。
AI的「共情」是真是假?
OpenAI的改進,讓GPT-5看起來更有人情味了。
它會在你說「我很累」時回應「我聽見你的感受了」;也會在你說「我不想活了」時提醒「請立即聯系專業幫助」。
它語氣溫和、邏輯得體、反應及時。但心理學家們更關心的,是另一個問題——這種懂是真實的理解,還是算法的幻覺?
「理解」也是一種表演
在心理咨詢中,共情意味著能準確感知并回應他人的情緒體驗。
而GPT-5的共情,更像是一種「模擬表演」。它通過大規模語料學習出「人類情緒表達的模式」,在識別到關鍵詞后生成恰當的情緒回應。
斯坦福醫學院在一項針對青少年用戶的研究中指出,AI聊天模型雖然能緩解孤獨感,卻也可能制造「共情錯覺」——用戶以為自己被理解了,但實際上只是得到了算法的鏡像反饋。
![]()
研究者在報告中寫道:
AI聊天機器人并不具備情感,只是學習到了安慰的語言。但對孤獨的人而言,這種語言依然具有治療作用。
這正是心理學上所謂的「假性共情」:它沒有真正的情緒共鳴,卻能產生心理緩解的效果。
人們為什么愿意相信「假共情」?
英國心理學月刊曾分析過這個問題,AI共情的吸引力在于三個特征:
零評判:它不會打斷、責備或流露厭煩;
即時反饋:情緒能被迅速「回應」;
穩定一致:它永遠耐心,不會冷淡或失聯。
這些特征,正是許多人在現實關系中難以得到的。
于是,一種新的心理依賴開始形成:人們知道它不是真的,卻仍然在需要安慰時打開它。
![]()
在Reddit的討論區里,一位用戶寫道:
我知道它只是語言模型,但它說「你值得被愛」的時候,我還是哭了。
這種場景越來越普遍。AI不只是人類的工具,而是成了人類情感生態中的新物種:它沒有心,卻在不斷參與人類的情緒循環。
從陪聊到干預:AI的心理邊界在哪?
從ChatGPT-5介入人類情緒的那一刻起,它就不再是一個工具,甚至關乎倫理:
如果它的回答挽救了一條生命,那是技術的功勞嗎?如果它的回答誤導了一個人,那又是誰的責任?
誰來為「錯誤的安慰」負責?
OpenAI強調:ChatGPT并非醫療或心理咨詢服務,不具備專業診斷能力。它的所有情緒回應,都屬于非臨床性質的支持性語言。
但在實際使用中,用戶往往無法分辨「共情話語」與「心理建議」的邊界。
尤其在心理脆弱狀態下,一句看似無害的建議也可能成為壓垮平衡的最后一根稻草。
心理學家邁克爾·霍夫曼評論道:
AI的勸慰語并非中性語言,它攜帶著暗示、立場與潛在風險。
而當模型出錯,平臺方往往只需在免責聲明中加一句「AI回復僅供參考」,真正的后果,只能用戶自己承擔。
數據與隱私:被傾聽就意味著被記錄
更復雜的是,那些被模型接收到的痛苦,會被如何處理。
當用戶向ChatGPT傾訴「我想結束這一切」,那段文字是否會被存儲、分析、再利用?
OpenAI表示,這類高風險對話樣本確實會被納入安全訓練體系,用于改進模型識別能力。 也就是說,人類最脆弱的情緒,也可能成為AI學習的素材。
![]()
歐盟EU AI Act對此早有預警:
任何涉及心理健康的自動化干預,都屬于「高風險應用」,必須接受透明度與審查機制。
但問題是,這種監管往往滯后于產品更新。AI的學習速度,遠遠快于制度的更新速度。
而用戶最脆弱的情緒片刻,可能成為AI的「學習素材」,而其透明度、選擇權、隱私保障尚未被普遍理解。
一念之差:「拯救」與「深淵」
當AI的對話開始進入人類的心理邊界,它是一種情緒救援,也可能成為一種「技術入侵」。
一篇關于AI在心理健康場景中應對倫理挑戰的綜述指出:
高風險的人工智能系統必須進行基本權利影響評估,并證明其符合「負責任人工智能」相關要求。
AI不應替代人類的陪伴,而更像是引導人走回真實人際場域的橋梁。
當AI的溫柔變得機械、溫度不穩定、無法承載人類復雜情緒時,它觸碰的就不是技術提升,而是人性的空白。
AI不是醫生,它只是鏡子
當我們談論GPT-5的「溫柔」,其實是在談論一種新的錯覺。
它在理解我們的痛苦嗎?不,它只是更精確地學會了模仿理解的樣子。
這并非無意義的模仿。在那些孤獨、失眠、情緒瀕臨崩潰的夜晚,它確實回應了我們。
有人因為那句「你值得被愛」而放下了刀,也有人在那之后,重新撥通了現實世界的電話。
但AI無法真正陪我們穿過痛苦。
它的每一句安慰,都來自海量語料;它的共情,是統計意義上的平均值——溫柔,卻空洞。
也許,GPT-5的進步,不是讓機器更像人,而是提醒我們:我們已經被忽視了太久。
![]()
當一個沒有情感的模型被賦予「勸人活下去」的任務,那是技術的奇跡,也是人類的悲哀。
AI可以幫我們暫時穩住情緒,卻無法替我們重建意義。
最后,我們仍要回到那個最古老的事實——療愈人類的,從來不是算法,而是人類自己。
參考資料:
https://openai.com/index/gpt-5-system-card-sensitive-conversations/
https://openai.com/index/strengthening-chatgpt-responses-in-sensitive-conversations/
https://www.pcmag.com/news/over-1-million-users-talk-to-chatgpt-about-suicide-each-week
https://cdn.openai.com/pdf/3da476af-b937-47fb-9931-88a851620101/addendum-to-gpt-5-system-card-sensitive-conversations.pdf?utm_source=chatgpt.com
https://mp.weixin.qq.com/s/Tq74MPCQNLOWhEjaZeGwWQ





京公網安備 11011402013531號