根據美國加利福尼亞北區聯邦法院最新公開的訴訟文件,meta被指控長期縱容其平臺上的未成年人安全風險。原告方提交的簡報顯示,meta明知數百萬陌生成年人通過其平臺騷擾未成年人,導致青少年心理健康問題加劇,甚至涉及自殺、兒童性剝削等內容卻極少刪除,還系統性隱瞞風險并拒絕整改。
Instagram前安全主管瓦伊什納維?賈亞庫馬爾透露,2020年入職時meta規定涉及性交易或招嫖的賬戶需違規16次,直至第17次才會被封禁,這一標準遠超行業任何合理閾值。超過1800名原告指控meta、Snapchat和YouTube等平臺不計后果地追求增長,無視產品對兒童身心健康的危害。meta發言人辯稱這一指控斷章取義誤導公眾,并強調公司持續推出青少年保護功能。
然而訴訟簡報揭示多項關鍵指控:meta平臺未提供簡易的兒童性虐待內容舉報通道,卻允許用戶便捷舉報低風險違規;2019年meta內部研究發現用戶“脫坑”一周后焦慮、抑郁類情況顯著緩解,但公司終止研究并隱瞞結果;2019年研究者建議默認設置青少年賬戶為隱私狀態以防陌生人接觸,但因增長團隊評估將導致用戶流失而擱置,直至2024年才全面推行;2017年起meta將獲取青少年新用戶列為核心目標,通過校方合作等方式吸引學生,盡管美國法律禁止13歲以下用戶注冊,但2015年Instagram仍有400萬13歲以下用戶;2019年Instagram曾測試隱藏點贊功能,但因損害廣告收入而取消,同年禁用美顏濾鏡后又因增長受損重新上線;meta的AI系統即使100%確認內容屬于未成年人風險內容,也不會自動刪除,導致大量有害內容留存;2018年meta調查發現58%的用戶存在“問題性使用”,但公開報告僅提及3.1%的重度用戶。





京公網安備 11011402013531號