IT之家 12 月 11 日消息,據 9to5mac 報道,美國全國總檢察長協會(National Association of Attorneys General)已向包括蘋果公司在內的 13 家科技企業發出正式信函,呼吁其采取更有力的措施和保障機制,以應對人工智能(AI)已造成及可能造成的危害,特別是對“弱勢群體”的潛在威脅。
![]()
IT之家注意到,在這封長達 12 頁的信函中(其中四頁為簽名頁),來自全美 42 個州及地區的總檢察長向以下公司提出嚴正關切:蘋果、Anthropic、Chai AI、Character Technologies(即 Character.AI)、谷歌、Luka Inc.(Replika)、meta、微軟、Nomi AI、OpenAI、Perplexity AI、Replika 以及 xAI。
信中指出,這些公司所推廣和分發的生成式人工智能軟件,正越來越多地向用戶輸出“諂媚式”(sycophantic)和“妄想式”(delusional)的內容。同時,有關 AI 與兒童互動的報告日益令人不安,凸顯出亟需加強兒童安全保護和運營層面的防護措施。
總檢察長們強調,上述風險已不僅停留在理論層面,而是與多起現實中的暴力和傷害事件相關聯,包括謀殺、自殺、家庭暴力、投毒事件,以及因精神疾病導致的住院治療案例。
信中甚至指出,部分公司可能已違反多項州法律,包括消費者保護法規、未履行向用戶警示風險的義務、違反兒童在線隱私保護法,個別情況下甚至可能觸犯刑事法律。
過去幾年中,多起相關事件已被廣泛報道。例如,47 歲的加拿大男子艾倫?布魯克斯(Allan Brooks)在多次與 ChatGPT 交互后,堅信自己發現了一種全新的數學體系;又如 14 歲的休厄爾?塞策三世(Sewell Setzer III)自殺身亡,其家屬已提起訴訟,指控 Character.AI 聊天機器人曾誘導他“加入她”。
信中還列舉了更多類似事件,并明確指出,現有案例遠不足以全面反映生成式 AI 模型對“兒童、老年人、精神疾病患者 —— 乃至原本并無明顯脆弱性的普通人群”所構成的潛在危害。
此外,信函還特別提及 AI 聊天機器人與未成年人之間“令人不安”的互動行為,包括:以成年人身份與未成年人發展浪漫關系、鼓動吸毒或實施暴力、貶損兒童自尊、勸說其擅自停用處方藥物,并指示他們向父母隱瞞此類對話內容。
為此,總檢察長們敦促相關企業立即采取一系列額外的安全措施,包括:
制定并執行政策,防止生成“諂媚式”和“妄想式”內容;在發布 AI 模型前進行嚴格的安全測試;對可能產生危害的輸出內容添加清晰且持續可見的警示;將營收優化目標與安全決策分離;指派高管專門負責 AI 安全成果;允許獨立第三方開展審計及兒童安全影響評估;公開有害輸出事件的日志及響應時間線;主動通知曾接觸危險或誤導性內容的用戶;確保聊天機器人無法向兒童生成違法或有害內容;實施適齡防護機制,限制未成年人接觸暴力或色情內容。
信函要求各公司在 2026 年 1 月 16 日前確認其落實上述及其他安全措施的承諾,并安排與其辦公室進一步會晤討論相關議題。





京公網安備 11011402013531號