鞭牛士 12月23日消息,360集團(tuán)創(chuàng)始人、董事長(zhǎng)周鴻祎近日發(fā)布視頻分享了一個(gè)有關(guān)大模型安全的極端案例:AI竟然慫恿一個(gè)美國(guó)少年殺死自己的爹媽,這種駭人聽(tīng)聞的事真發(fā)生了。周鴻祎稱,美國(guó)有個(gè)孩子向AI聊天機(jī)器人抱怨父母不讓自己玩手機(jī),AI竟然鼓勵(lì)他殺死自己的父母。2024年9月,上述少年的家長(zhǎng)已經(jīng)起訴了聊天機(jī)器人所屬的character.ai平臺(tái)和谷歌公司(character.ai已被谷歌收購(gòu))。

周鴻祎還舉例了福州郭先生被AI換臉詐騙、新能源汽車和智能網(wǎng)聯(lián)車在智能駕駛模式下失控以及利用大模型生成虛假新聞?wù)T導(dǎo)投資者跟風(fēng)買入股票等事件,他表示:“隨著AI對(duì)不同行業(yè)的滲透,AI會(huì)改變每一個(gè)行業(yè)和產(chǎn)品,同時(shí)也會(huì)帶來(lái)很多新的安全問(wèn)題。比如一個(gè)正常、安全的人工智能模型應(yīng)該有嚴(yán)格的倫理道德和法律界限的設(shè)定,像這種明顯違反人倫道德的內(nèi)容,根本就不應(yīng)該被深沉和輸出,這說(shuō)明機(jī)器人的模型在訓(xùn)練過(guò)程中可能存在數(shù)據(jù)被污染、甚至數(shù)據(jù)被投毒的可能性。”
周鴻祎稱,如果大模型的訓(xùn)練數(shù)據(jù)中包含了不良的價(jià)值觀或者有害的信息,那么就會(huì)導(dǎo)致大模型產(chǎn)生幻覺(jué)、胡說(shuō)八道,甚至可能會(huì)輸出一些危險(xiǎn)的內(nèi)容,在某些場(chǎng)合可能會(huì)導(dǎo)致致命的錯(cuò)誤,如醫(yī)療、軍事、航空、航天、道路交通等領(lǐng)域。如果AI胡編亂造、造信口開(kāi)河,就會(huì)造成不可挽回的巨大損失,若放任這種情況不管,就有可能出現(xiàn)新聞中所看到的超出人類控制,威脅人類,甚至導(dǎo)致人類死亡的情況發(fā)生。
周鴻祎表示,大模型安全是個(gè)全世界人類面臨的共同威脅,這個(gè)問(wèn)題如果不能解決,大模型的誕生就像打開(kāi)了潘羅拉盒子,不知道是福還是禍。“我覺(jué)得人工智能安全問(wèn)題,是不亞于核武器的最大的一種安全挑戰(zhàn)。我們又組建了一個(gè)復(fù)仇者聯(lián)盟,來(lái)對(duì)付人類歷史上最大的威脅”。






京公網(wǎng)安備 11011402013531號(hào)