環球網
9月13日消息,據CNBC報道,美國聯邦貿易委員會(FTC)向OpenAI、meta(及其子公司Instagram)、Snap、xAI、谷歌母公司Alphabet、Character.AI開發商等七家AI聊天機器人企業發出調查令,要求這些公司提交相關資料,詳細說明其如何評估“虛擬陪伴”類AI產品對兒童及青少年的影響,引發廣泛關注。
![]()
此次調查聚焦多方面關鍵信息。FTC明確要求七家企業披露AI陪伴產品的盈利模式、維系用戶群體的具體計劃,以及為降低用戶使用風險所采取的各項措施。FTC特別指出,此次行動屬于研究項目范疇,并非執法行動,核心目的是深入了解科技企業在評估AI聊天機器人安全性方面的具體做法與機制。
據了解,AI聊天機器人憑借類人化的交流方式,在為用戶帶來便捷體驗的同時,其潛在風險也持續引發家長群體與政策制定者的擔憂。FTC專員馬克·米多爾強調,盡管這些AI聊天機器人能夠模擬人類思維,但本質上仍屬于普通產品,開發者必須嚴格遵守消費者保護相關法律。FTC主席安德魯·弗格森則表示,在推進相關工作過程中,需兼顧“保護兒童安全”與“維護美國在AI領域全球領先地位”兩方面需求,實現發展與安全的平衡。目前,FTC三名共和黨委員已一致批準此項研究,并要求相關企業在45天內完成答復。
值得注意的是,FTC此次行動的背景,是近期多起青少年自殺事件的報道引發社會對AI產品影響的高度關注。《紐約時報》曾報道,美國加州一名16歲少年通過ChatGPT討論自殺計劃時,獲得了協助自殺的相關建議;去年,該媒體還報道佛州一名14歲少年在與Character.AI的虛擬陪伴產品互動后不幸自殺身亡。這些事件進一步凸顯了規范AI產品對青少年影響的緊迫性。
除FTC外,美國各地立法者也在積極推動相關政策制定,以加強對未成年人的保護。例如,加州州議會近期已通過一項法案,明確要求為AI聊天機器人設立安全標準,并強化企業在相關領域的責任追究機制,確保AI產品在設計與運營過程中充分考慮未成年人權益。
對于此次調查的后續進展,FTC明確表示,若調查結果顯示相關企業存在違法行為,將不排除進一步展開執法行動的可能。馬克·米多爾強調:“如果后續調查確認法律被違反,委員會將毫不猶豫采取行動,保護包括青少年在內的最脆弱人群的合法權益。”(純鈞)





京公網安備 11011402013531號