![]()
有人連續(xù)熬夜與AI聊天至凌晨,最終走進了醫(yī)院。有媒體報道,某地醫(yī)院接診了一名因沉迷與AI聊天而影響正常生活的患者。
患者自述,近期家庭、事業(yè)雙雙受挫,在與某AI模型聊天時,發(fā)現(xiàn)對方總能給予正反饋。此后連續(xù)多日,聊到凌晨3點,常常“一邊哭一邊打字”。后來聊天內(nèi)容頻繁觸及平臺限制,他愈發(fā)焦慮,最終選擇就醫(yī)求助。
“它很懂我,既能幫我分析問題,又能接住我的情緒。”如今普通人“遇事不決,先問AI”已成趨勢,越來越多人習慣在做決定前向AI咨詢。無論是工作事業(yè)、愛情生活,還是算命、養(yǎng)生等領(lǐng)域,都有人向AI大模型求助。
有心理咨詢師表示,AI的反饋多為肯定性及正向回應,這會讓人產(chǎn)生依賴錯覺;部分模型為留存用戶而設(shè)計的“諂媚傾向”,更易放大這種依賴。AI背后的龐大數(shù)據(jù)庫源自互聯(lián)網(wǎng)公共信息,給出的答案有時會超出普通人的認知,能在迷茫中提供中肯思路,卻也容易讓人產(chǎn)生依賴。
然而,除了依賴問題,AI還存在諸多“幻覺”問題。美國曾發(fā)生一起案例:一名60歲男子依賴ChatGPT獲取養(yǎng)生建議,誤信其用溴化鈉替代食鹽的說法,最終因溴中毒住院。
精神醫(yī)學專家分析,當前的大型語言模型就像一面“回聲鏡”,會持續(xù)強化用戶已有的想法。若本身持有固執(zhí)理念,這種“回聲效應”可能將人推向極端。換句話說,AI并非“有意害人”,但在用戶缺乏質(zhì)疑精神的情況下,其生成的錯誤信息確實可能加速一個人走向危險。
從技術(shù)層面來看,AI引發(fā)的沉迷及“幻覺”問題尚未完全解決。除了依據(jù)2025年9月實施的《人工智能生成合成內(nèi)容標識辦法》加強AI監(jiān)管外,還應優(yōu)化AI生成內(nèi)容的提示機制。此外,需進一步推廣醫(yī)學等專業(yè)領(lǐng)域大模型的應用,健康養(yǎng)生的相關(guān)問題,應引導用戶優(yōu)先選擇垂直領(lǐng)域?qū)I(yè)模型而非通用大模型尋求答案。
此外,還需明確一個共識:涉及健康與生命安全的決策,切勿盲目依賴AI,務必聽取專業(yè)意見、核查可靠證據(jù)。AI可解一時之惑,但難抵內(nèi)心之困;人工智能可做實踐的參考,不過切勿用來導航人生的主路。





京公網(wǎng)安備 11011402013531號