近日,AI 公司Anthropic正式支持加州州長斯科特?維納(Scott Wiener)提出的 SB53法案。該法案計劃對全球最大的 AI 模型開發者施加前所未有的透明度要求,成為美國首個針對 AI 安全的立法嘗試。然而,矛盾的是,許多硅谷科技公司和聯邦政府對此法案表示強烈反對。
Anthropic在一篇博客中指出:“盡管我們認為前沿 AI 安全問題應在聯邦層面解決,而不是由各州自行規定,但強大的 AI 技術發展不會等待華盛頓的共識。” 該公司強調,制定 AI 治理標準是當務之急,而 SB53提供了一條合理的路徑。
如果 SB53法案獲得通過,像Anthropic、OpenAI、谷歌和 xAI 等 AI 模型開發者將需要制定安全框架,并在部署強大 AI 模型前,發布公開的安全和安保報告。此外,該法案還將為舉報安全問題的員工提供保護。
該法案特別關注于限制 AI 模型對 “災難性風險” 的貢獻,定義為導致至少50人死亡或造成超過10億美元損失的事件。SB53側重于防范極端 AI 風險,例如防止 AI 模型被用于生物武器的開發或網絡攻擊,而不涉及更近一步的 AI 深度偽造或過度迎合等問題。
加州參議院已經通過了 SB53的初步版本,但仍需進行最終投票,才能將其送交州長簽署。盡管加州州長紐森尚未對該法案表態,但他曾否決過類似的 SB1047法案。
反對聲音主要來自硅谷及特朗普政府,認為此類法案可能限制美國在與中國競爭中的創新。安德森?霍洛維茨(Andreessen Horowitz)和 Y Combinator 等投資者對此法案進行了強烈反對,認為州政府不應干預 AI 安全問題,應該將此事交給聯邦政府。
盡管存在這些反對意見,政策專家認為 SB53相較于之前的 AI 安全法案顯得更為溫和。加州立法者在該法案的制定過程中顯示了對技術現實的尊重以及一定的立法克制。Anthropic的聯合創始人杰克?克拉克(Jack Clark)表示,盡管希望有聯邦標準,但現有法案為 AI 治理提供了一份不可忽視的藍圖。
劃重點:





京公網安備 11011402013531號