IT之家 10 月 30 日消息,北京時間今日,聊天機器人平臺 Character.AI 宣布,將針對青少年用戶推出多項安全措施,此前公司收到了監管機構、安全專家和家長的反饋。
其中一項關鍵措施,就是在 11 月 25 日前全面取消未滿 18 歲用戶的開放式聊天功能。在此之前,Character.AI 表示,未成年用戶每天的聊天時間將從兩小時起逐步縮短。為了讓青少年仍能保持互動,Character.AI 將推出新的創意功能,包括與角色共同制作視頻、故事和直播內容。
![]()
Character.AI 還表示,將推出自主研發的年齡認證系統,并結合 Persona 等領先第三方工具,確保每位用戶只能使用適合其年齡的 Character.AI 功能。
此外,Character.AI 將成立獨立非營利的 AI 安全實驗室,公司將提供資金支持。實驗室將專注于下一代 AI 娛樂功能的安全設計創新,重點探索新型安全技術、加強合作并分享經驗。
Character.AI 向受開放式聊天取消影響的青少年用戶表示歉意,并承認這是一個重大調整,但公司仍認為此舉是正確選擇。
據IT之家此前報道,美國佛羅里達州一名母親 Megan Garcia 指控人工智能平臺 Character.AI 的聊天機器人導致其 14 歲兒子自殺。聯邦法官裁定,谷歌與 Character.AI 必須面對這起訴訟。





京公網安備 11011402013531號