
出品|
作者|鄭松毅
編輯|楊錦
AI究竟該如何監管?李飛飛、吳恩達等AI大佬,正在與美國立法機構展開較量。
是“解藥”還是“毒藥”?
近日,一個名為“SB-1047” 的AI監管法案成為焦點,引來眾多AI大佬不滿。

就在昨日,李飛飛親自撰文提出抗議,加州大學7個校區的師生及其他機構研究人員起草并簽署聯名信企圖阻止法案通過。
該法案全稱為《前沿人工智能模型安全創新法案》(以下簡稱“法案”),旨在為AI模型樹立安全標準,明確責任劃分,以防止AI濫用帶來的災難性后果。
《法案》最初于2月份在參議院被提出,幾經修改后,很多AI科學家仍認為該《法案》條款存在極大不合理性,或將對AI發展產生不利影響。
根據《法案》,受重點監管的AI模型范圍包括使用超過 10^26 次整數或浮點運算的計算能力進行訓練的人工智能模型,其成本超過一億美元。
同時,利用等于或大于 10^25 次整數或浮點運算三倍的計算能力,對范圍內的模型進行微調而創建的人工智能模型也在監管范圍內。
簡單來說,當前市場上的主流AI大模型幾乎都被包含在內,需接受“重點照顧”。
另外,《法案》直接要求開發者對模型開發及后續衍生應用承擔法律責任。
“在模型正式發布前,開發者應保證模型處于未經許可禁止訪問狀態,并保證模型在發布后不會對社會造成嚴重損害。”
“如在安全風險評估中發現模型有潛在安全風險,則開發者不得將模型用于商業或公開用途,也不得將模型衍生品用于商業或公開用途。”
《法案》規定,開發者每年需向監管部門上交一份由首席技術官或更高職位官員簽署的安全證明,延遲未交或做偽證將受到處罰,甚至可能入獄。
《法案》要求開發者對“危險事件”具備及時響應能力:要在獲知事件發生72小時內總結上報給監管部門,同時在設計代碼時要讓模型具備迅速“全面關閉”能力,以便及時停止使用。
同時,《法案》對舉報人設有保護條款,鼓勵舉報者上報模型危害行為和風險,確保員工可以在不受報復的情況下報告企業的不合規情況。
據悉,如果法案獲得通過,州長 Gavin Newsom的一個簽名就可以將其納入加州法律。
從表面來看,《法案》擬定出發點是好的,但在科學家們看來,這些繁瑣的規定或將成為AI創新發展的“抑制劑”。
李飛飛:AI生態系統會因此變得更糟
《法案》在正式通過前,留給科學家們抗議的時間已經不多了。
為此,李飛飛親自撰文陳述《法案》不合理性,試圖再為合理立法爭取一些時間。

李飛飛在文中表示,“善意的人工智能法案將損害美國生態系統。人工智能政策制定必須以鼓勵創新為前提,設置適當的限制。不這樣做的政策在最好的情況下無法實現其目標,在最壞的情況下會導致意想不到的嚴重后果。”
她提到,“每個AI開發者(尤其是初出茅廬的開發者和企業家)都無法預知模型的所有用途,法案對開發者過度追責將迫使開發者退縮并采取防御措施——這正是需要避免的。”
在李飛飛看來,該法案對開源社區將形成毀滅性影響。
“法案提到的‘全面關閉’是一種可以隨時關閉程序的機制。如果程序員們都在擔心他們下載或正在構建的程序可能會被隨時刪除,他們將更加不愿意編寫代碼和寫作。‘全面關閉’將摧毀開源社區——它是無數創新的源泉。其影響不限于人工智能領域,而是在從 GPS 到 MRI 到互聯網本身的各個領域。”
她提到,“法案將削弱公共部門和學術人工智能研究。開源開發對于私營部門很重要,但對于學術界也至關重要。如果沒有協作和對模型數據的訪問,學術界就無法進步。如果我們的機構無法獲得適當的模型和數據,我們將如何培養下一代人工智能領導者?”
“終止開關甚至會進一步削弱學生和研究人員的努力,與大型科技公司相比,他們在數據和計算方面已經處于劣勢。在我們應該加倍加大公共部門人工智能投資時,SB-1047 將為學術人工智能敲響喪鐘。”
李飛飛強調,該法案并未解決人工智能進步的潛在危害,包括偏見和深度偽造等等。相反,SB-1047 設置了一個任意閾值——調節使用一定計算能力或花費 1 億美元訓練的模型。
在她看來,這項措施遠非提供保障,只會限制包括學術界在內的跨部門創新。如果學術界受到 SB-1047 的監管,我們的人工智能生態系統將會因此而變得更糟。”
她澄清自己并不反對人工智能治理,但認為該法案目前過于武斷。同時,加州是全美最強大的人工智能生態所在地,立法將具備代表性并會影響到其他地方,需要謹慎思考。
“立法對于人工智能的安全有效發展至關重要。但人工智能政策必須促進開源開發,提出統一且合理的規則,并建立消費者信心。”李飛飛說。
AI大佬聯合發起公開信,怒斥法案“愚蠢”
除李飛飛外,加州院校和AI相關研究機構也在行動,聯合起草公開信試圖阻止法案通過。

除了與李飛飛上述提到的類似觀點外,公開信還強調了該法案對教育的損害。
“SB-1047未來可能會阻礙對人工智能感興趣的學生進一步學習相關知識,甚至可能會阻止新人才進入計算機科學等關鍵領域。此外,隨著科技行業從大公司向初創公司的轉變,額外的監管障礙可能會通過支持更大、更好的企業來削弱新興創新者。這種轉變可能會縮窄學生的職業道路。”
截至目前,數十名來自加州大學7個校區、哈佛大學、等院校及研究機構的學者們已完成簽名,共同吹響抗爭號角。
除了公開信,不少大佬選擇在社交媒體上發聲,給這把火又添了把柴。
吳恩達發文致謝meta團隊對開源做出的貢獻,并表示“希望SB-1047這樣愚蠢的法規不會阻止此類創新。”
他指出,“這項擬議的法律犯了一個根本性的錯誤:應監管人工智能應用而不是技術。”
“我歡迎取締未經同意深度偽造的內容,用水印等特別設置識別生成內容,并為安全研究方面投入更多資金。不幸的是,擬議的法案走的是一條不太有益、更有害的道路。”
吳恩達認為,模糊不清的法案要求將會提高企業合規成本,即便是還沒什么收入的小公司也需要聘請團隊幫助審核,以幫助確保他們遵守這些模糊且不合理的要求。
圖靈獎得主楊立昆隨即為吳恩達的論證點贊,并再次強調該法案將扼殺開源人工智能,并阻止人工智能創新。
未來學者和思想家Daniel Jeffries尖銳指出,“SB-1047不是人工智能安全法案,而是特洛伊木馬(病毒)。”
“它(法案)的設計看起來謹慎,但其真正目的是為一小群邊緣反人工智能分子提供致命開關,同時給加州的科技行業帶來破壞。”Daniel Jeffries說。





京公網安備 11011402013531號