12 月 9 日消息,蘋果公司因在 2022 年取消原定的兒童性虐待材料(CSAM)檢測計劃而被起訴。一位童年時期曾遭受性虐待的 27 歲女性以化名起訴蘋果,指控其違背了保護受害者的承諾。

蘋果在 2021 年末曾宣布計劃通過設備端哈希值系統掃描 iCloud 中的圖片,以檢測和阻止 CSAM 傳播,并在用戶發送或接收含裸露內容的照片時發出警告。目前,裸露內容檢測功能(Communication Safety)仍然存在,但 CSAM 檢測功能因隱私專家、兒童安全組織和政府的廣泛反對被取消。
起訴者稱,她在 CSAM 檢測功能仍在時,曾接到執法部門的通知,發現她遭受性虐待的圖片通過一臺在佛蒙特州查獲的 MacBook 被上傳至了 iCloud。她在訴訟中表示,蘋果停止這一功能的決定使這些材料得以廣泛傳播,蘋果因此向消費者銷售了“有缺陷的產品”,對像她這樣的用戶群體造成了傷害。
據該女子的一名律師稱,原告要求蘋果改變其做法,并向可能多達 2680 名其他符合條件的受害者提供賠償,此類受害者有權根據法律獲得至少每人 15 萬美元的賠償。如果全部受害者成功獲得賠償,蘋果的賠償金額可能超過 12 億美元(備注:當前約 87.28 億元人民幣)。
類似的案件已在北卡羅來納州發生。一名 9 歲的 CSAM 受害者指控蘋果,稱她通過 iCloud 鏈接收到陌生人發送的非法視頻,并被鼓勵拍攝并上傳類似內容。蘋果公司提出了一項駁回案件的動議,指出聯邦法規第 230 條保護其免于對用戶上傳到 iCloud 的材料承擔責任。但近期法院裁定,這一法律保護僅適用于積極內容審核的情形,可能削弱蘋果的抗辯理由。
針對新訴訟,蘋果發言人弗雷德?塞恩茲表示:“蘋果認為兒童性虐待材料令人發指,我們致力于在不損害用戶隱私和安全的前提下積極打擊相關犯罪。”他提到蘋果擴展了信息應用中的裸露內容檢測功能,并允許用戶舉報有害材料。然而,原告及其律師瑪格麗特?馬比認為,蘋果的措施遠遠不夠。





京公網安備 11011402013531號