
鈦媒體App 8月7日消息,“AI教母”、美國國家工程院院士、美國國家醫學院院士、美國藝術與科學院院士、美國斯坦福大學首位紅杉講席教授,斯坦福以人為本人工智能研究院(HAI)院長李飛飛(Feifei Li)今晨在《Fortune》撰文指出,美國加州即將實施 AI 安全法案將損害開發者、學術界,甚至對整個美國 AI 生態系統造成傷害,但同時并不能解決 AI 潛在危害。
“如今, AI 比以往任何時候都更加先進。然而,能力越大,責任越大。政策制定者、公民社會和行業人士都在尋求一種治理方式,以最大限度地減少潛在危害,并塑造一個安全、以人為本的 AI 社會。我贊揚其中一些努力,但也對其他努力持謹慎態度;加州的《前沿人工智能模型安全創新法案》(以下名字是 SB-1047)就屬于后一類。這項善意的立法將產生重大的意想不到的后果,不僅對加州,而且對整個國家。”李飛飛表示。
據悉,今年7月,美國加利福尼亞參議院已經批準SB-1047法案的一個版本,它要求開發者證明其 AI 模型不會被用于造成傷害,這比今年美國各州議員提出的600多項 AI 法案添加更多限制,引發關注。而這個極具破壞性的提案可能會在今年8月會被加州州長加文·紐森(Gavin Newsom)簽署成法案。
根據該法案的定義,meta的Llama-3被定義為超過1億美元訓練成本的“前沿模型”。如果有人將該模型用于非法用途,meta也會受到嚴重處罰。同時,該法案中的22603(a)(3)(4)條要求"有限職責豁免"向政府部門提交證明,并在有錯誤時停止模型的運行,而第22603(b)條要求開發者需要報告任何模型的潛在的AI安全事故。如果開發者無法完全掌控基于其模型的各種衍生版本,若發生安全事故,責任將歸屬于第一開發者——這相當于是一個連帶責任。
此外,該法案中的22604(a)(b)規定,當用戶使用其“前沿模型”和算力資源時,開發者需要提交客戶的所有資料,包括客戶的身份、信用卡號、賬號、客戶標識符、交易標識符、電子郵件、電話號碼。而且,每年都要提交一次資料,并對用戶的行為、意圖進行評估。用戶的所有資料會被備份7年,也會在海關、邊境總署備案。
美國加州的地理位置非常特殊,這里既有斯坦福、加州理工、南加州大學等名校,也是谷歌、蘋果、OpenAI、meta等科技巨頭總部的所在地。所以對此,圖靈獎得主、meta的首席 AI 科學家楊立昆(Yann LeCun),李飛飛,投資機構a16z創始合伙人安德里森·霍洛維茨(Andreessen Horowitz)、斯坦福大學計算機科學系和電氣工程系的客座教授吳恩達(Andrew Ng)等人均表達反對意見。
其中,楊立昆警告稱,該法案的“連帶責任條款將使開源 AI 平臺面臨巨大風險……meta不會受影響,但 AI 初創公司將會倒閉。”據悉,如果這些模型被他人惡意使用時,該法案要求AI開發者對其開發的模型承擔民事甚至刑事責任。
霍洛維茨認為,加利福尼亞的反 AI 法案雖出于好意,但因誤導可能會削弱美國科技產業,正當技術未來正處于關鍵十字路口之時。美國需要領導者認識到,現在是采取明智且統一的 AI 監管行動的關鍵時刻。
吳恩達發文指出,美國加州SB-1047法案將扼殺開源大模型發展。他進一步指出,應該監管的是AI應用程序而不是大模型本身。
而李飛飛認為,AI 政策必須鼓勵創新,設置適當的限制,并減輕這些限制的影響。不這樣做的政策在最好的情況下無法實現其目標,在最壞的情況下會導致意想不到的嚴重后果。如果 SB-1047 法案通過成為法律,它將損害美國剛剛起步的 AI 生態系統,尤其是那些已經對當今科技巨頭不利的部分:公共部門、學術界和“小科技”。SB-1047 法案將不必要地懲罰開發人員,扼殺我們的開源社區,并阻礙學術 AI 研究,同時無法解決它旨在解決的實際問題。
李飛飛給出了四點理由:
首先,SB-1047 將過度懲罰開發者并扼殺創新。如果 AI 模型被濫用,SB-1047 將追究責任方和該模型的原始開發者的責任。每個 AI 開發者(尤其是初出茅廬的程序員和企業家)都不可能預測其模型的所有可能用途。SB-1047 將迫使開發者退縮并采取防御措施——這正是我們試圖避免的。
其次,SB-1047將束縛開源開發。SB-1047 要求所有超過一定閾值的模型都包含一個“終止開關”,這是一種可以隨時關閉程序的機制。如果開發人員擔心他們下載和構建的程序會被刪除,他們將更加不愿意編寫代碼和協作。這個終止開關將摧毀開源社區——它是無數創新的源泉,不僅在AI領域,而且在各個領域,從 GPS 到 MRI 再到互聯網本身。
第三,SB-1047 將削弱公共部門和學術界的AI研究。開源開發對私營部門很重要,但對學術界來說也至關重要,因為如果沒有合作和模型數據,學術界就無法進步。以研究開放式AI模型的計算機科學專業學生為例。如果我們的機構無法獲得適當的模型和數據,我們將如何培養下一代AI領導者?與大型科技公司相比,終止開關將進一步削弱這些學生和研究人員的努力,他們已經在數據和計算方面處于劣勢。SB-1047將給學術界、本應加倍投資公共部門AI敲響“喪鐘”。
最令人擔憂的是,該法案并未解決AI發展的潛在危害,包括偏見和深度偽造。相反,SB-1047 設定了一個任意的門檻,對使用一定計算能力或花費 1 億美元進行訓練的模型進行監管。這項措施非但不能提供保障,反而只會限制包括學術界在內的各個領域的創新。
李飛飛指出,今天,學術界的 AI 模型低于這個門檻,但如果美國重新平衡私營和公共部門AI的投資,學術界就會受到 SB-1047 的監管,美國的AI生態系統將因此變得更糟。因此,美國必須采取相反的做法。
“在過去一年與拜登總統的多次對話中,我都表達了需要‘登月心態’來推動我國的AI教育、研究和發展。然而,SB-1047 的限制過于武斷,不僅會打擊加州的AI生態系統,還會對全國的AI產生令人不安的下游影響。”李飛飛指出,她并不反對AI治理。立法對于 AI 的安全有效發展至關重要。但 AI 政策必須促進開源開發,提出統一且合理的規則,并建立消費者信心。SB-1047 未達到這些標準。
李飛飛強調,她向該法案的起草人、參議員斯科特·維納 (Scott Wiener) 提出合作建議:讓我們共同制定 AI 立法,真正建設以技術為主導、以人為本的未來社會。
“事實上,AI的未來取決于它。加州——作為一個先驅實體,也是我們國家最強大 AI 生態系統的所在地——是AI運動的心臟,而加州的發展將影響整個國家的其他地方。”李飛飛在結尾表示。
(本文首發于鈦媒體App,作者|林志佳,編輯|胡潤峰)





京公網安備 11011402013531號