IT之家 10 月 30 日消息,前 OpenAI 安全研究員史蒂文?阿德勒當地時間 10 月 28 日在《紐約時報》撰文批評前公司,稱其在應對“AI 時代的心理健康危機”上力度不足,并受“競爭壓力”影響而放松了對 AI 安全的重視。
此前,奧爾特曼宣稱公司已憑借“新工具”緩解了嚴重的心理健康問題,并“很快允許”平臺出現成人內容。對此,阿德勒提出批評:“基于我在 OpenAI 工作的四年經歷以及去年離職后進行的獨立研究,我對這些心理健康問題是否真正解決存在重大疑問。公眾不應僅僅依賴公司口頭承諾來相信安全問題已獲解決,換句話說:(公司需要)拿出證據來證明這一點。”
阿德勒警告稱,放開成人內容可能帶來嚴重后果。“問題不在于內容本身,而在于用戶對 AI 聊天機器人的強烈情感依賴顯示出明顯的預警信號。”
阿德勒回憶自己在 2021 年領導 OpenAI 的產品安全團隊時寫道:“對那些看似正在與心理健康問題掙扎的用戶而言,情感或性互動的不穩定性尤其危險。”
阿德勒認為,OpenAI 關于心理健康問題普遍性的最新通報是個良好開端,但批評 OpenAI 在公布數據時沒有將這些比率與過去數月的數據作比較。與其“快速推進并打破規則”,OpenAI 和同行更應“放慢腳步”,給全社會時間去開發新的安全方法,這些方法應當即便面對別有用心的組織也無法輕易規避。因此,若要讓人們信任 OpenAI 及其競爭對手去打造他們所追求的顛覆性技術,相關企業就必須證明自己今天在風險管理方面是可信的。
據IT之家此前報道,OpenAI 在本周發布的公告中估計,相當比例的活躍 ChatGPT 用戶顯示出“可能與精神病或躁狂有關的心理健康緊急情況的跡象”。不僅如此,OpenAI 還發現更多用戶的對話中包含“明確表明存在潛在自殺計劃或意向的跡象”。





京公網安備 11011402013531號