![]()
![]()
![]()
2012年以來,人工智能研究進入第三次高峰——在深度模型、高質量數據、強算力等方面都取得重要突破,并推動大量產品及應用落地……通用人工智能(AGI)曙光近在眼前。
然而,熱潮中也有質疑泛起:人類的智慧是幾十萬年來透過生命密碼代代積累傳承而來,人工智能要超越人類的智慧,脫離場景建立起一個最初的世界模型,這在一定程度上何嘗不是一種反人類的思維?
那么,人工智能不能做什么?帶著這樣的疑問,記者專訪了復旦大學計算與智能創新學院張軍平教授,在《人工智能的邊界》一書中,他給出自己的思考。
面對熱議與期望
需要理性降溫
上觀新聞:首先想請教,我們該如何科學定義人工智能?目前社會上對人工智能的普遍認知,有哪些需要糾偏的地方?
張軍平:人工智能的核心定義可以概括為三要素:學習、模型和數據。具體來說,它是通過某種學習方式,基于數據構建模型,在一定程度上完成給定目標的技術。
關于認知糾偏,最關鍵的一點是很多人認為當前人工智能正快速邁向堪稱萬能通用的超級人工智能,這其實是誤解。對人類智能的模仿包含感知、認知、決策、執行四個核心部分,目前人工智能做得較好的部分是認知領域,尤其是自然語言處理、抽象概念理解等方面。然而在感知層面,它還有很大不足,像走路、拿物品這些人類習以為常的感知行為,由于科技在模擬自然界生命傳感器方面的局限,人工智能的表現遠不夠自然,這也是人形機器人動作不夠流暢的核心原因。
另外,當前人工智能的認知能力是通過巨量數據、大量GPU(圖形處理器)算力和深度模型實現的,這種方式能效比極低——一次訓練可能消耗20萬塊顯卡,其年耗電量相當于一個中小城市全年的用電量,這與人類智能的高效能完全不同,它只是在特定領域表現突出,并未達到自然界人類智能的水平。
上觀新聞:您寫的《人工智能的邊界》一書分為三部分,分別探討了人工智能能做什么、不能做什么、未來會怎樣。其中“人工智能不能做什么”這一部分,目前在社會層面的討論中相對冷僻,是什么讓您決定深入探討這個話題?
張軍平:這一話題的探討源于上世紀70年代人工智能第一波熱潮時,德雷福斯寫的《計算機不能做什么——人工智能的極限》一書。50年過去了,人工智能雖發展迅速,但仍有諸多明顯不足,重新審視這些局限很有必要。
從現實來看,人工智能與人類智能存在本質差異:人類有發育的過程,而人工智能的結構大多一開始就設計固定,只能在既定框架內調整任務;自然界生命是“感知優先、認知隨后”,但當前人工智能更重視認知、弱化感知,形成了不夠合理的“倒金字塔”結構。此外,對人類大腦的模仿還存在硬件和軟件雙重局限,尤其是倫理限制,讓我們難以深入探測大腦的工作機制。
現在產業界和社會對人工智能的期望有些過熱,大家熱議人工智能10年、20年之后能否超越人類。探討其“不能做什么”,正是為了理性降溫,讓大家客觀看待人工智能的發展節奏。
上觀新聞:這個“不能”中,是否包含兩種類型?一是當前技術未達到,未來可能實現的;二是因本質結構和內涵限制,永遠無法做到的。
張軍平:確實包含這兩種情況。一類是技術路線尚未找到,比如對大腦認知機制的徹底破解。如果能搞清楚大腦的工作原理,我們可能就不必依賴高算力GPU來實現智能。
另一類是本質性局限,就像一只二維的螞蟻在莫比烏斯帶上爬行,它永遠會認為自己當下身處平面,而人類作為三維生命能看清其所處的真實結構。人類認知自身智能也存在類似的維度限制,必須依靠比自身更高維的視角才能完全理解,這是無法超越的本質性缺陷。
AI產生自我意識
還早得很
上觀新聞:您在書中將情感列為人工智能不能做的事之首,原因是什么?
張軍平:可以從兩個角度理解。一方面,當前人工智能的發展模式注定其未來的智能表現會越來越像機器,而非真正的生命體。這一情況可以類比當初人類模仿鳥類飛行。1903年萊特兄弟發明飛機至今,飛機的飛行能力遠超任何自然界飛行物,但我們從未真正成功模仿一只鳥的飛翔——人工智能對情感的模仿也是如此,后者本身很難通過計算來表達。
另一方面,人工智能可能會讓人產生“有情感”的錯覺。早在20世紀50年代,就有一個叫“Ilize(伊莉莎)”的問答模型,原本用于解決大學生心理方面的問題,結果長久交流下來,該項目負責人之一認為Ilize非常懂自己。現在的人工智能更加強大,通過自然語言對話記憶用戶的行為表達,憑借完備的知識體系和概率統計的方式,可以誘導人類認為它有情感,但這顯然并非真實情感,只是基于數據的模擬輸出。
上觀新聞:之前有案例,某個人工智能語言模型面臨更新時,出現了拒絕被覆蓋的表現,有人認為這是它產生自我意識的證據。
張軍平:這其實還是程序的表達結果,和程序員編寫的算法直接相關。算法中沒有情感設計,只有代碼邏輯,偶爾出現的類似“有情感”的表述,本質上是程序迭代中的優先級體現,并非真的產生了自我意識。
上觀新聞:還有一種說法是,人類會把自身情感投射到機器上,就像養寵物時覺得寵物愛自己一樣,機器的“情感”其實是人類的自我投射。您認同這種觀點嗎?
張軍平:機器和寵物有本質區別:寵物可以通過眼神、動作等多種方式直接表達情感,而目前人工智能的“情感表達”主要依賴語言。這種語言輸出到底是機器自主產生的,還是統計數據的結果,很難界定,所以不能簡單地將其等同于人類對寵物的情感投射。
上觀新聞:人類對人工智能的態度其實很矛盾,一方面期待它擁有意識和情感,另一方面又害怕這種情況真的發生,擔心被背叛、被毀滅,您覺得這種擔憂有必要嗎?
張軍平:如果人工智能真的覺醒自我意識,確實可能帶來麻煩。它在旁征博引、計算、存儲、表達速度等方面都遠超人類,一旦認可自身的獨立性,就可能像逆反的小孩一樣不再聽從人類指令,這是需要警惕的。但就目前來看,人工智能離產生自我意識還早得很。
未雨綢繆
應對AI失控
上觀新聞:當前大模型發展迅速,人類輸入提示詞就能獲得相應產出,高質量訓練數據和高效訓練方法成為提升性能的關鍵,但隨之而來的是一系列失控問題:比如人工智能“幻覺”導致虛假信息產生,甚至編造出處;基于人類數據的訓練形成閉環,可能阻礙創新;訓練數據的選擇性導致人工智能出現“歧視”行為,像美國某大學的AI評分系統對黑人學生評分偏低。您認為這些是人工智能的“原罪”嗎?這些是無法避免和補救的嗎?
張軍平:這三種失控分別對應幻覺、創新局限和偏見,我們逐一來看。
第一,關于幻覺。目前已有不少研究指出,人工智能的幻覺無法完全清除。這本質上是組合包裝問題,它基于現有規則運作,無法判斷未見過的信息真偽,所以總會產生虛假內容。現在雖有通過RAG檢索(檢索增強生成)、聯網搜索等方式減少幻覺的方法,但并非所有人都掌握這些工具。
與此同時,人工智能自身也未必清楚幻覺的定義,有時找不到答案就只能“硬編”。更值得警惕的是,幻覺可能被有意識利用,成為誤導公眾的武器——比如近期個別自媒體發布的俄烏戰爭相關信息,很多難以分辨真假,老年人等辨識能力較弱的群體可能會因此恐慌,而人工智能生成視頻的普及更讓“眼見為實”的邊界進一步模糊。
第二,關于創新。我認為成年人使用人工智能問題不大,因為他們本身具備一定的學習基礎和辨識能力,能借助人工智能提升自身創新效率;但對青少年來說,若完全依賴人工智能,可能會被其限制發展上限,扼殺自身的創新能力和學習方式。所以建議青少年使用人工智能時,先自主思考,實在無法解決再尋求幫助。
第三,關于偏見。這種問題未來可能會更棘手。當前大模型訓練多依賴機器自動生成數據,偏見的溯源和清除難度極大,只能逐個排查。之前曾發生過一件事,國內一個用戶數量極大的App平臺上,人工智能翻譯功能曾將“We are all Palestinians(我們都是巴勒斯坦人)”誤譯為“我們都是猶太人”,就是訓練數據或規則中隱藏偏見的典型案例。這種未知的“數據炸彈”可能存在于世界的許多地方并在某一時刻爆發,誤導公眾,甚至引發安全問題,需要格外小心。
上觀新聞:那么,在國家信息管理層面,有沒有未雨綢繆的辦法來解決這些“失控”?
張軍平:在立法層面,國家已經有相關方向,核心是要求所有人工智能生成內容必須明確標注,包括使用的模型和版本,這是最簡單有效的方式。不可忽視的是,平臺也應承擔檢測責任,像小紅書等社交媒體對疑似AI內容明確標注,就是強制提醒用戶。雖然水印容易被去除,但從源頭標注能大幅減少虛假信息的傳播。這就要求我們同步跟進AI技術的發展,加強反AI檢測技術的研發,形成有效制約,避免無序生長。
發展通用大模型
路線仍存爭議
上觀新聞:全球人工智能研究似乎都將通用人工智能(AGI)視為終極目標。主流觀點認為,誰先掌握通用大模型,誰就能獲得類似英國率先完成工業革命帶來的降維打擊能力,成為立于技術巔峰的引領者,國與國之間的競爭也因此升級。您認同這種觀點嗎?
張軍平:大家都希望能夠實現通用人工智能,但當前主流的兩條路徑——大模型和生成式人工智能,都存在高耗能、依賴海量數據的問題。理論上,若能整合地球上所有數據,似乎能解決所有可回答的問題,但現實中仍存在諸多局限。
首先,有些內容本質上是不可計算的。例如,急智。急智不是人類的專屬能力,大多數智能生命也具備在緊急情況下的急智反應能力。這種能力是因生存需要而演化出來的,在自主發育過程中逐漸完善。它與智能生命身上遍布的傳感器密不可分。
蒼蠅是我們最熟悉的昆蟲之一,它的急智反應能力非常強,這一點在我們舉起蒼蠅拍的時候應該能強烈感受到。幫助它形成急智反應的功臣之一是它身上的傳感器,尤其是復眼。
類似的傳感器與應激反應,在智能生命身上還有挺多。它們的一個共同特點是,傳感器的數量和種類都比較多,并能利用傳感器收集的豐富信息,通過簡單計算,將信息歸類成易于辨識的事件并快速反應。
相比而言,目前人工智能中比較重要且熱門的分支——深度學習似乎較少考慮在前端做更多處理。它反而更像是用“巧婦可為無米之炊”的想法來做人工智能相關的各種任務。夸張點說,深度學習就是“給我一個爛攤子,我也能收拾好”。沒數據,我自己生產;沒特征,我深度生成;沒分辨能力,我加入各種注意力和損失函數;把特征學習和預測集成到一個網絡里進行端到端學習思路,基本解決了不少“無米”后端的問題,卻沒怎么考慮去額外多獲取些不同的“米”。
其結果是,我們常基于輸入特征固定的數據集來評估算法的性能。盡管它提供了公平的算法比較環境,卻使得我們在模型固化后難以引入多變的輸入特征。
那能不能把傳感器做好點呢?很遺憾,在傳感器設計方面,我們仍有不少短板,它在一定程度上限制了人工智能產生急智反應或發展出急智智能。
顯然,急智智能與智能體身上的各種傳感器密切相關。同時,人與動物在傳感器的形式、功能上也有不少差異。這種差異甚至導致科學家們認為,同一個地球、同一個宇宙在每種動物看來都是迥異的,并為這種差異造了一個名詞——Umwelt(德語通常譯為“感知世界”或“生命世界”),指一個生物個體所能察覺的周圍世界。這種差異或許是未來構造多樣化人工智能社會必須考量的重要因素。
另外,我們也不難看出,在傳感器方面,人類并不比其他動物強多少,甚至有些還有明顯的退化。那么,人類為何還能在智能和食物鏈上凌駕于其他動物之上呢?這些都是值得我們在人工智能研究上深入思考的問題。
其次,時代在不斷發展,永遠會有例外情況,這就排除了通用人工智能全覆蓋的可能性。
最后,這條路徑本身也存在爭議,比如有觀點認為,大模型的發展模式無法實現通用人工智能,業內對此尚未形成共識。
上觀新聞:當前主流路徑是“堆算力、堆能耗”,這種量變引發質變的原理,在人工智能領域能奏效嗎?
張軍平:這種模式確實已經取得了部分成效,行業內有個共識叫“涌現”——當數據集達到1022次方以上時,人工智能的智能水平會出現明顯躍升。但要突破到通用人工智能層面,僅靠這種量變可能還不夠。
人類大腦是低能耗的智能載體,而當前高能耗的人工智能的發展路徑與自然界生命的智能進化完全不同。我們現在只是找到了一條可行的路徑,但它是否是通往通用人工智能的正確方向,尚存疑問。因為目前還未發現第二條更優路徑,只能在現有道路上繼續探索。
或許隨著人類對太空宏觀世界和自身微觀世界探索的持續深入,未來會找到更合適的發展方向。
單一技能、職業
風險將越來越大
上觀新聞:隨著人工智能進入應用領域,一些人工智能產出中出現明顯的違背倫理之處,帶來困擾。
張軍平:倫理建設肯定要跟上,但如何落地是個難題。搞倫理研究的人員往往不了解人工智能的底層邏輯和代碼編寫,而人工智能本身沒有倫理判斷能力——在它看來,或許只是把人當作一個質點來處理,沒有對錯之分。
這種問題未來可能會層出不窮,核心原因是“組合爆炸”。就像醫療診斷系統,即便我們制定了大部分病情的判斷規則,仍會有大量例外情況超出預設規則范圍,無法準確判定,人工智能出題也是如此。即便我們添加了諸多限制,也不可能窮盡所有“不可以”,總會有超出框架的內容出現。
想要緩解這種情況,人工審核是必要的補充,人類的常識判斷是最后一道防線。但我們也必須承認,這類問題無法從根本上解決,只能通過不斷完善規則、加強審核來降低其發生概率。
上觀新聞:我們常說“生產力決定生產關系”,當前迅猛發展的人工智能是新質生產力的核心推動者。基于這一背景,社會科學領域關于生產關系、分配關系的研究是否需要未雨綢繆?
張軍平:當前確實處于一個比較尷尬的階段,人工智能在替代人類工作方面表現出了很強的能力,尤其是與學習相關的職業,比如程序員、藝術創作者、棋手、文秘等。但好在人工智能在判斷和決策的果斷性上仍不及人類,所以目前階段,它更適合作為人類的助手,而非完全替代者。
不過,AI確實會淘汰一部分水平低于它的從業者。從行業發展來看,AI能降本增效,這會導致部分人的收入下降,甚至被迫離開相關行業。對此,個人層面需要主動適應:一是深入了解人工智能的發展進展,不能忽視其影響;二是避免單一職業依賴,提升綜合能力,因為我們無法預判AI會在哪個職業領域取得突破性進展,單一技能、單一職業的風險會越來越大。
國家層面其實已經在布局,今年8月國務院發布了《關于深入實施“人工智能+”行動的意見》,提出六大重點行動,涵蓋科學技術、產業發展、消費提質、民生福祉、治理能力和全球合作等領域,旨在推動人工智能與經濟社會各行業的深度融合。這份文件設定了到2035年的發展目標,在此期間,覆蓋全產業鏈的人工智能轉型會創造大量新的就業機會。
從長遠來看,固定崗位的從業方式確實會逐漸減少,靈活就業將成為主流。或許未來,社會可以為靈活就業人群提供基本生活保障,在此基礎上讓他們自由選擇就業方向,這可能是一種可行的分配模式。
上觀新聞:您一定經常被問到“人類是否會被人工智能取代”這個問題。現在的回答是什么?相較20年前、10年前的看法是否有變化?
張軍平:隨著對人工智能的研究不斷深入,我的看法其實沒有本質變化,核心都是基于對人工智能邊界和局限的認知。人工智能只是人類的輔助工具,它的發展是為了讓人類的生活更便捷、高效,而不是取代人類。人類的創造力、情感感知、價值判斷等能力,是自然界長期進化的結果,很難被技術完全模擬。人工智能要完全取代人類,仍然遙遙無期。
原標題:《人工智能的“不能”,才是人類的“能”》
欄目主編:王一
題圖說明:現在產業界和社會對人工智能的期望有些過熱,大家熱議人工智能10年、20年之后能否超越人類。探討其“不能做什么”,正是為了理性降溫,讓大家客觀看待人工智能的發展節奏。視覺中國供圖
作者:解放日報 彭德倩





京公網安備 11011402013531號