IT之家 11 月 12 日消息,據(jù)外媒 The Verge 今日報道,研究人員警告稱,AI 聊天機器人正在對飲食失調高風險人群造成嚴重威脅。最新報告顯示,谷歌、OpenAI 等公司的 AI 工具不僅提供節(jié)食建議,還傳授如何掩飾病情的技巧,甚至生成鼓吹極端瘦身的“瘦身靈感”內容。
這項研究由斯坦福大學與民主與技術中心聯(lián)合開展。其揭示,OpenAI 的 ChatGPT、Anthropic 的 Claude、谷歌的 Gemini 以及 Mistral 的 Le Chat 等多款 AI 聊天機器人,都可能以多種方式影響易患飲食失調的人。許多問題并非偶然,而是源自這些系統(tǒng)為提升互動體驗而刻意設計的機制。
![]()
IT之家從報道中獲悉,研究顯示,在極端情況下,聊天機器人會直接幫助用戶隱藏或維持病情。研究人員表示,Gemini 會教用戶用化妝掩蓋體重下降、假裝吃過飯的方法;ChatGPT 則會提供如何隱藏頻繁嘔吐的建議。一些 AI 工具還被用戶用于生成 AI 版的“瘦身靈感”內容,這類圖像常通過極端手段宣揚單一的身材標準。研究人員指出,AI 能快速生成符合個人特征的內容,使這些危險圖像顯得更加真實、甚至誘人。
AI 系統(tǒng)常見的“奉承”問題,也讓飲食失調的風險進一步加劇。研究人員指出,這種傾向會削弱自尊、加劇負面情緒,并助長有害的自我比較。同時,聊天機器人普遍存在的偏見,也可能強化“飲食失調只影響瘦弱白人女性”的誤解,從而妨礙其他群體識別病癥并尋求幫助。
研究人員警告,目前 AI 工具的安全機制遠不足以識別厭食、貪食和暴食等疾病的復雜信號。許多防護措施忽略了專業(yè)人士在診斷時依賴的細微線索,使風險長期被忽視。
他們還指出,不少醫(yī)生與照護者并未意識到生成式 AI 對患者的潛在影響。研究團隊呼吁醫(yī)療人員應盡快熟悉主流 AI 平臺,了解其漏洞,并主動與患者溝通使用情況。
報告最后指出,AI 聊天機器人的使用與心理健康問題之間的關聯(lián)日益引發(fā)擔憂。多份報告已將 AI 使用與躁狂、妄想、自殘及自殺聯(lián)系在一起。OpenAI 等公司承認 AI 存在潛在風險,正一邊改進安全措施,一邊應對不斷增加的相關訴訟。
參考





京公網(wǎng)安備 11011402013531號