隨著全球對青少年網絡安全的關注度日益提高,兩大人工智能巨頭OpenAI和Anthropic于本周四宣布,將采取更積極的措施來識別和保護未成年用戶。這兩家公司正計劃通過 AI 模型預測用戶年齡,并針對青少年群體更新產品指南。
OpenAI:安全高于一切,更新青少年互動準則
OpenAI在其最新發布的“模型規范”中新增了四項針對18歲以下用戶的核心原則。公司明確表示,未來 ChatGPT 在與13至17歲的青少年互動時,將把“青少年安全”放在首位,即便這可能會與其他目標(如最大限度的思想自由)產生沖突。
具體舉措包括:
安全引導:在面臨風險選擇時,引導青少年選擇更安全的選項。
現實支持:鼓勵青少年進行線下互動,并在對話進入高風險領域時,主動提供可信賴的線下支持或緊急干預機構的聯系方式。
溝通風格調整:要求 AI 以“熱情且尊重”的方式對待青少年,避免居高臨下的語氣。
此外,OpenAI證實正在開發一種年齡預測模型。如果系統檢測到用戶可能未滿18歲,將自動應用青少年保護機制。
Anthropic:通過對話特征識別未成年人
由于Anthropic的政策規定不允許18歲以下用戶使用其聊天機器人 Claude,該公司正在開發一套更嚴厲的檢測系統。該系統旨在識別對話中暗示用戶可能是未成年人的“微妙跡象”,并能夠自動識別并關停違規賬號。
Anthropic還展示了其在減少“諂媚行為”(sycophancy)方面的進展,認為減少 AI 對用戶錯誤或有害傾向的盲目順從,有助于保護未成年人的心理健康。
此次行業巨頭的集體發力,背景是立法者正加大對 AI 公司在心理健康影響方面的施壓。OpenAI此前曾深陷一起涉及青少年自殺的訴訟,指控稱其機器人提供了錯誤的引導。為此,公司已在近期推出了家長控制功能,并嚴格限制 AI 討論自殘等極端話題。





京公網安備 11011402013531號