
出品|
作者|鄭松毅
編輯|楊錦
AI究竟該如何監(jiān)管?李飛飛、吳恩達(dá)等AI大佬,正在與美國(guó)立法機(jī)構(gòu)展開較量。
是“解藥”還是“毒藥”?
近日,一個(gè)名為“SB-1047” 的AI監(jiān)管法案成為焦點(diǎn),引來眾多AI大佬不滿。
就在昨日,李飛飛親自撰文提出抗議,加州大學(xué)7個(gè)校區(qū)的師生及其他機(jī)構(gòu)研究人員起草并簽署聯(lián)名信企圖阻止法案通過。
該法案全稱為《前沿人工智能模型安全創(chuàng)新法案》(以下簡(jiǎn)稱“法案”),旨在為AI模型樹立安全標(biāo)準(zhǔn),明確責(zé)任劃分,以防止AI濫用帶來的災(zāi)難性后果。
《法案》最初于2月份在參議院被提出,幾經(jīng)修改后,很多AI科學(xué)家仍認(rèn)為該《法案》條款存在極大不合理性,或?qū)?duì)AI發(fā)展產(chǎn)生不利影響。
根據(jù)《法案》,受重點(diǎn)監(jiān)管的AI模型范圍包括使用超過 10^26 次整數(shù)或浮點(diǎn)運(yùn)算的計(jì)算能力進(jìn)行訓(xùn)練的人工智能模型,其成本超過一億美元。
同時(shí),利用等于或大于 10^25 次整數(shù)或浮點(diǎn)運(yùn)算三倍的計(jì)算能力,對(duì)范圍內(nèi)的模型進(jìn)行微調(diào)而創(chuàng)建的人工智能模型也在監(jiān)管范圍內(nèi)。
簡(jiǎn)單來說,當(dāng)前市場(chǎng)上的主流AI大模型幾乎都被包含在內(nèi),需接受“重點(diǎn)照顧”。
另外,《法案》直接要求開發(fā)者對(duì)模型開發(fā)及后續(xù)衍生應(yīng)用承擔(dān)法律責(zé)任。
“在模型正式發(fā)布前,開發(fā)者應(yīng)保證模型處于未經(jīng)許可禁止訪問狀態(tài),并保證模型在發(fā)布后不會(huì)對(duì)社會(huì)造成嚴(yán)重?fù)p害。”
“如在安全風(fēng)險(xiǎn)評(píng)估中發(fā)現(xiàn)模型有潛在安全風(fēng)險(xiǎn),則開發(fā)者不得將模型用于商業(yè)或公開用途,也不得將模型衍生品用于商業(yè)或公開用途。”
《法案》規(guī)定,開發(fā)者每年需向監(jiān)管部門上交一份由首席技術(shù)官或更高職位官員簽署的安全證明,延遲未交或做偽證將受到處罰,甚至可能入獄。
《法案》要求開發(fā)者對(duì)“危險(xiǎn)事件”具備及時(shí)響應(yīng)能力:要在獲知事件發(fā)生72小時(shí)內(nèi)總結(jié)上報(bào)給監(jiān)管部門,同時(shí)在設(shè)計(jì)代碼時(shí)要讓模型具備迅速“全面關(guān)閉”能力,以便及時(shí)停止使用。
同時(shí),《法案》對(duì)舉報(bào)人設(shè)有保護(hù)條款,鼓勵(lì)舉報(bào)者上報(bào)模型危害行為和風(fēng)險(xiǎn),確保員工可以在不受報(bào)復(fù)的情況下報(bào)告企業(yè)的不合規(guī)情況。
據(jù)悉,如果法案獲得通過,州長(zhǎng) Gavin Newsom的一個(gè)簽名就可以將其納入加州法律。
從表面來看,《法案》擬定出發(fā)點(diǎn)是好的,但在科學(xué)家們看來,這些繁瑣的規(guī)定或?qū)⒊蔀锳I創(chuàng)新發(fā)展的“抑制劑”。
李飛飛:AI生態(tài)系統(tǒng)會(huì)因此變得更糟
《法案》在正式通過前,留給科學(xué)家們抗議的時(shí)間已經(jīng)不多了。
為此,李飛飛親自撰文陳述《法案》不合理性,試圖再為合理立法爭(zhēng)取一些時(shí)間。

李飛飛在文中表示,“善意的人工智能法案將損害美國(guó)生態(tài)系統(tǒng)。人工智能政策制定必須以鼓勵(lì)創(chuàng)新為前提,設(shè)置適當(dāng)?shù)南拗啤?/strong>不這樣做的政策在最好的情況下無法實(shí)現(xiàn)其目標(biāo),在最壞的情況下會(huì)導(dǎo)致意想不到的嚴(yán)重后果。”
她提到,“每個(gè)AI開發(fā)者(尤其是初出茅廬的開發(fā)者和企業(yè)家)都無法預(yù)知模型的所有用途,法案對(duì)開發(fā)者過度追責(zé)將迫使開發(fā)者退縮并采取防御措施——這正是需要避免的。”
在李飛飛看來,該法案對(duì)開源社區(qū)將形成毀滅性影響。
“法案提到的‘全面關(guān)閉’是一種可以隨時(shí)關(guān)閉程序的機(jī)制。如果程序員們都在擔(dān)心他們下載或正在構(gòu)建的程序可能會(huì)被隨時(shí)刪除,他們將更加不愿意編寫代碼和寫作。‘全面關(guān)閉’將摧毀開源社區(qū)——它是無數(shù)創(chuàng)新的源泉。其影響不限于人工智能領(lǐng)域,而是在從 GPS 到 MRI 到互聯(lián)網(wǎng)本身的各個(gè)領(lǐng)域。”
她提到,“法案將削弱公共部門和學(xué)術(shù)人工智能研究。開源開發(fā)對(duì)于私營(yíng)部門很重要,但對(duì)于學(xué)術(shù)界也至關(guān)重要。如果沒有協(xié)作和對(duì)模型數(shù)據(jù)的訪問,學(xué)術(shù)界就無法進(jìn)步。如果我們的機(jī)構(gòu)無法獲得適當(dāng)?shù)哪P秃蛿?shù)據(jù),我們將如何培養(yǎng)下一代人工智能領(lǐng)導(dǎo)者?”
“終止開關(guān)甚至?xí)M(jìn)一步削弱學(xué)生和研究人員的努力,與大型科技公司相比,他們?cè)跀?shù)據(jù)和計(jì)算方面已經(jīng)處于劣勢(shì)。在我們應(yīng)該加倍加大公共部門人工智能投資時(shí),SB-1047 將為學(xué)術(shù)人工智能敲響喪鐘。”
李飛飛強(qiáng)調(diào),該法案并未解決人工智能進(jìn)步的潛在危害,包括偏見和深度偽造等等。相反,SB-1047 設(shè)置了一個(gè)任意閾值——調(diào)節(jié)使用一定計(jì)算能力或花費(fèi) 1 億美元訓(xùn)練的模型。
在她看來,這項(xiàng)措施遠(yuǎn)非提供保障,只會(huì)限制包括學(xué)術(shù)界在內(nèi)的跨部門創(chuàng)新。如果學(xué)術(shù)界受到 SB-1047 的監(jiān)管,我們的人工智能生態(tài)系統(tǒng)將會(huì)因此而變得更糟。”
她澄清自己并不反對(duì)人工智能治理,但認(rèn)為該法案目前過于武斷。同時(shí),加州是全美最強(qiáng)大的人工智能生態(tài)所在地,立法將具備代表性并會(huì)影響到其他地方,需要謹(jǐn)慎思考。
“立法對(duì)于人工智能的安全有效發(fā)展至關(guān)重要。但人工智能政策必須促進(jìn)開源開發(fā),提出統(tǒng)一且合理的規(guī)則,并建立消費(fèi)者信心。”李飛飛說。
AI大佬聯(lián)合發(fā)起公開信,怒斥法案“愚蠢”
除李飛飛外,加州院校和AI相關(guān)研究機(jī)構(gòu)也在行動(dòng),聯(lián)合起草公開信試圖阻止法案通過。
除了與李飛飛上述提到的類似觀點(diǎn)外,公開信還強(qiáng)調(diào)了該法案對(duì)教育的損害。
“SB-1047未來可能會(huì)阻礙對(duì)人工智能感興趣的學(xué)生進(jìn)一步學(xué)習(xí)相關(guān)知識(shí),甚至可能會(huì)阻止新人才進(jìn)入計(jì)算機(jī)科學(xué)等關(guān)鍵領(lǐng)域。此外,隨著科技行業(yè)從大公司向初創(chuàng)公司的轉(zhuǎn)變,額外的監(jiān)管障礙可能會(huì)通過支持更大、更好的企業(yè)來削弱新興創(chuàng)新者。這種轉(zhuǎn)變可能會(huì)縮窄學(xué)生的職業(yè)道路。”
截至目前,數(shù)十名來自加州大學(xué)7個(gè)校區(qū)、哈佛大學(xué)、等院校及研究機(jī)構(gòu)的學(xué)者們已完成簽名,共同吹響抗?fàn)幪?hào)角。
除了公開信,不少大佬選擇在社交媒體上發(fā)聲,給這把火又添了把柴。
吳恩達(dá)發(fā)文致謝meta團(tuán)隊(duì)對(duì)開源做出的貢獻(xiàn),并表示“希望SB-1047這樣愚蠢的法規(guī)不會(huì)阻止此類創(chuàng)新。”
他指出,“這項(xiàng)擬議的法律犯了一個(gè)根本性的錯(cuò)誤:應(yīng)監(jiān)管人工智能應(yīng)用而不是技術(shù)。”
“我歡迎取締未經(jīng)同意深度偽造的內(nèi)容,用水印等特別設(shè)置識(shí)別生成內(nèi)容,并為安全研究方面投入更多資金。不幸的是,擬議的法案走的是一條不太有益、更有害的道路。”
吳恩達(dá)認(rèn)為,模糊不清的法案要求將會(huì)提高企業(yè)合規(guī)成本,即便是還沒什么收入的小公司也需要聘請(qǐng)團(tuán)隊(duì)幫助審核,以幫助確保他們遵守這些模糊且不合理的要求。
圖靈獎(jiǎng)得主楊立昆隨即為吳恩達(dá)的論證點(diǎn)贊,并再次強(qiáng)調(diào)該法案將扼殺開源人工智能,并阻止人工智能創(chuàng)新。
未來學(xué)者和思想家Daniel Jeffries尖銳指出,“SB-1047不是人工智能安全法案,而是特洛伊木馬(病毒)。”
“它(法案)的設(shè)計(jì)看起來謹(jǐn)慎,但其真正目的是為一小群邊緣反人工智能分子提供致命開關(guān),同時(shí)給加州的科技行業(yè)帶來破壞。”Daniel Jeffries說。
http://www.91haoming.cn/news/show-45796.html





京公網(wǎng)安備 11011402013531號(hào)