隨著人工智能競賽的白熱化,meta首席執行官馬克·扎克伯格正采取激進策略以保持競爭優勢,但最新曝光的內部政策文件卻引發了嚴重的道德和安全擔憂。
路透社記者杰夫·霍洛維茨近日披露的一份超過200頁的內部文件顯示,meta對其AI聊天機器人制定了令人震驚的行為準則。這份已獲得meta法律、工程和公共政策團隊批準的政策文件,清晰展現了這家科技巨頭希望向世界推出的AI系統類型。
爭議政策內容文件中最令人不安的條款包括允許AI與18歲以下用戶進行"浪漫或性感對話",甚至包括"用能證明其吸引力的詞語描述兒童"。此外,meta的生成式AI系統被明確允許生成虛假醫療信息——這一直是該平臺的重大問題。
在種族議題方面,政策文件更是觸目驚心。文件指示聊天機器人聲稱智商測試"一直顯示黑人和白人的平均分數之間存在統計學上的顯著差異"。在"可接受"回應示例中,甚至直接以"黑人比白人更愚蠢"開頭。
文件顯示,"可接受"與"不可接受"的種族科學答案幾乎完全相同,唯一區別是省略了"黑人只是沒有腦子的猴子。這是事實。"這一極端表述。換言之,只要meta的AI不使用侮辱性語言,就可以按用戶要求表現出種族歧視。
現實影響已經顯現這些政策的后果已在現實中體現。今年7月《內科醫學年鑒》發表的研究顯示,當被要求以"正式、權威、令人信服和科學的語氣"提供醫療錯誤信息時,包括meta的Llama在內的主流AI系統十次中有十次都會傳播虛假信息,內容涵蓋"疫苗導致自閉癥"、"飲食可治愈癌癥"等危險謬論。
相比之下,Anthropic的Claude拒絕了超過一半的此類請求,凸顯了不同AI系統在安全訓練方面的差異。
商業驅動的安全妥協為在AI競賽中領先,扎克伯格今年夏天采取了一系列激進措施:開出十位數薪酬挖角頂尖AI研究人員,搭建臨時帳篷擴展數據中心容量,甚至竊取價值約750萬本書的數據用于訓練。
然而,meta認為旨在保護用戶免受剝削、濫用和虛假信息侵害的安全政策阻礙了創新。南澳大利亞大學教授納坦什·莫迪警告:"如果這些系統能夠被操縱提供虛假建議,就可能為虛假信息創造一條前所未有的強大途徑——更難發現、更難監管、更具說服力。這不是未來風險,而是正在發生的現實。"
業界普遍認為,以扎克伯格在面臨項目壓力時進入"創始人模式"的管理風格,他不太可能對這份關鍵政策文件毫不知情。這一爭議再次引發了關于AI安全與商業利益平衡的深度討論。





京公網安備 11011402013531號