第十一屆北京香山論壇于9月12日正式開幕,在當天下午主題為“人工智能安全”的中外名家對話會上,與會中外嘉賓圍繞當前AI熱點話題進行觀點碰撞。與會嘉賓認為,AI存在的討好型人格容易影響其準確性,人腦具有不可替代性;有的嘉賓則建議,當前對AI監(jiān)管面臨很大挑戰(zhàn),建議各國政府間有必要制定協(xié)議,從政策層面加強監(jiān)管,緩解AI安全風險存在。

“人工智能安全”的中外名家對話會現(xiàn)場。
AI多輪問答容易“閃爍其詞”,缺乏可信度
“經(jīng)過幾輪回答它開始閃爍其詞,慢慢模糊絕對值的可信度。”關于人工智能是否可信賴的問題,東京大學生產(chǎn)技術研究所特聘教授、日本工程院外籍院士胡昂認為,當前AI缺乏量化的不確定性,對自己回答問題的方式存在不清晰的問題。AI存在不同模型的人格問題,它們有不同性格,有些尖銳,有些容易對抗,有些會喜歡討好你。“它可能會給你一個非常想知道的結果,但這個結果并不代表它是準確的。”
關于大家討論的“小算力”問題,胡昂分析,人的腦科學研究只是略微了解一些清晰結構,即人腦決策。如果可以做如此精確的問題反饋或決策,這是非常高級的智能。雖然人腦在人體內(nèi)僅占2%,但需要消耗20%的熱量。對于人體而言,這絕對不僅僅是器官問題,它是人類中樞最重要的決策機構。雖然是小模型,但是它是高度集中的算法。
發(fā)展AI最好辦法是人為干預和監(jiān)管,人腦不可替代
“人的腦科學研究被模擬、被深度學習的可能性很大,然而要在短時間內(nèi)完全取代人類決策是做不到的。”他建議,發(fā)展AI最好的辦法是人為干預和監(jiān)管,雖然會放棄一定的效率,但是會保證決策的科學性。從歷史長河來看,人之所以能夠有足夠的認知,有他存在的道理,“人腦是不可替代的。”
“當前對人工智能的監(jiān)管面臨很大挑戰(zhàn),監(jiān)管要加速,要更加敏捷。”同樣在聯(lián)合國教科文組織人工智能與數(shù)據(jù)科學促進社會發(fā)展教席、荷蘭海牙應用科技大學數(shù)據(jù)科學教授蘭普羅斯·斯特吉烏拉斯看來,人工智能是否能取代人腦自主決策,是哲學問題,也是現(xiàn)實問題。“人類的技術人員都會犯錯,何況機器?建議各國政府間有必要制定協(xié)議,從政策層面加強監(jiān)管。”
AI發(fā)展有不可預測性,相關倫理和治理要走在前面
美國國防分析研究所研究員,美國前助理國防部長幫辦施燦德認為,人工智能的安全問題涉及方方面面,除了國防,還包括民生等。他建議,國家間需要達成多邊協(xié)議,緩解人工智能安全風險。
清華大學信息科學技術學院院長、中國工程院院士戴瓊海發(fā)表觀點認為,未來三年,人工智能發(fā)展將進入快車道。由于人工智能發(fā)展的不可預測性,相關倫理、治理要走在前面,要降低人工智能應用的安全風險,使其為人類謀福祉。
南都記者從主辦方獲悉,本屆論壇共有100余個國家、國際組織官方代表團的500余名代表,以及200余名中外專家學者出席。其中,包括30多名國防部長、軍隊總長在內(nèi)的官方代表團,以及紅十字國際委員會副主席、亞信秘書長、上合組織副秘書長,北約、歐盟等國際和地區(qū)組織代表將出席會議。此外,參會嘉賓中還有30多名前政要和數(shù)十位知名學者。參會人員的數(shù)量和層級再創(chuàng)新高,代表性更趨全面。
北京香山論壇自2006年創(chuàng)辦以來,國際影響力持續(xù)攀升,已逐漸成為國內(nèi)外知名高端安全與防務對話平臺,成為中國提供、世界共享的國際公共安全產(chǎn)品和推進全球安全倡議的重要合作平臺。
采寫/攝影:南都記者潘珊菊 莫倩如 陳秋圓 發(fā)自北京





京公網(wǎng)安備 11011402013531號