
12月7日,在北京市大興區舉辦的2024T-EDGE創新大會暨鈦媒體財經年會上,暗物智能DMAI前美國CEO、藍色光標前美國總裁符海京和哈佛大學博士、加州大學伯克利分校人工智能實驗室執行董事、Dark Matter AI聯合創始人、微軟/亞馬遜顧問 Mark Nitzberg 展開了一場深入對談,探討生成式AI的潛力、困境與未來。
在Mark Nitzberg 看來,盡管生成式AI在許多任務中展現了顯著的效率提升——例如回答復雜問題、生成高質量內容等——但這項技術仍處于實驗階段,可靠性問題成了制約其進一步發展的主要障礙。“當前的模型在性能上的確進步巨大,但我們無法忽視它們在關鍵場景中的不一致性。例如,一個細微的輸入變化可能導致模型輸出答案出現巨大偏差,而這種不確定性是無法在醫療、交通等高風險領域被接受的。”
與此同時,Mark Nitzberg 特別提到生成式AI在許多新興領域中展現了指數級的效率提升。例如,他分享了瑞典對多個行業進行的分析研究,其中“建筑修復”這一領域因生成式AI的應用效率比傳統方法提升了約100倍。
不過他也保持了理性態度。Mark Nitzberg 提醒道:“雖然這些效率提升令人興奮,但它們的可持續性依然取決于我們能否攻克技術可靠性的問題。”
Mark Nitzberg 特別強調,如果我們將生成式AI引入我們所做的每一個領域,就需要確保我們對沒有它時的操作方式有清晰的理解。只有這樣,當我們引入AI并使其更高效、更快速地運行時,我們才不會將之前手動操作中的“問題部分”也自動化。
此外,Mark Nitzberg認為生成式AI向智能體的轉變潛力巨大,但同時也伴隨著復雜的技術挑戰和安全隱患,可靠性和控制機制是未來發展的重要研究方向。對于未來的研究重點,Mark Nitzberg表示將集中在兩個方面:一是多模態數據的整合,二是因果推理的增強。
以下為符海京和Mark Nitzberg對話實錄,略經鈦媒體App編輯:
中美都尚處于生成式AI的“實驗時代”
符海京:歡迎來到2024年T Edge大會。由于特殊情況,今天的特邀嘉賓無法親自到場與大家面對面交流,所以我們特別安排了連線對話。讓我們聊聊你的實驗室,以及AI領域有什么新的動態?
Mark Nitzberg:美國加州大學伯克利分校是全球頂尖的高等教育機構之一,同時也是一個非常優秀的AI實驗室所在地。這個實驗室很有趣,因為它是一個公共的AI實驗室。我們有70位教授,還有超過400名博士生,其中許多是中國籍學生,以及成千上萬的本科生。
AI已經以某種方式融入了人類生活的方方面面。但我們實際上仍處于生成式AI的實驗時代,這一切才剛剛開始。
AI的基礎是數字計算基礎設施,而這種基礎設施幾乎已經介入了人類的每一項活動。這背后是全球互聯網。幾年前的數據表明,人類每年創造的數字數據量達到120澤字節(zettabytes)。這是一個非常龐大的數字,相當于1200億TB,而你手中的設備可能只有1TB的存儲空間。
互聯網可以說是人類最大的技術創造,連接了我們所有人以及無數設備。這些數據的生成為AI的突破奠定了基礎。這些數據的生成,以及提供服務的公司高度集中化,構建了數據、網絡和處理能力的基礎設施。這些基礎設施使得神經網絡的發明成為可能,因為訓練神經網絡需要大量的數據。
隨后,大的技術突破是嵌入技術(embeddings)和transformers架構,它們催生了大型語言模型(LLMs),這一切始于2017年。因此,生成式AI的影響力源于我們生活在一個擁有超強傳感器、高度連接的設備和高度集中的數字服務的世界。這一切構成了生成式AI的基礎。
符海京:我想大家可能會好奇,生成式AI如何在不同的地理區域和不同行業中產生影響?
Mark Nitzberg:生成式AI的出現有一些值得理解的關鍵點。如果你要構建一個控制像水電大壩這樣強大系統的計算系統,就需要應用典型的工程方法來限制其行為。比如,你需要設定運行速度的上限,或者確保它不會超過某些閾值。
這是一個令人興奮的前景——我們可以使用看似“智能”的語言模型來控制水電大壩。然而,這些變換器模型的本質是一個巨大的電路板,就像一個混音面板,但這個混音面板有數萬億個旋鈕。每個旋鈕在訓練過程中都會被調整。你輸入一些數據,如果輸出結果不符合預期,就調整旋鈕。這個過程重復上百萬億次,最終你會得到一個所有旋鈕都調整好的電路板,這就是我們現在使用的語言模型,比如GPT-4等。
這些商業模型有幾個共同點。首先,它們非常強大,能夠完成許多令人驚訝的任務,比如回答各種復雜問題、生成圖像等,它們在廣泛的應用領域中表現出色。
然而,它們也有一個共同的問題,那就是不可靠。也就是說,你不能指望一個語言模型去回答醫療問題。雖然我們可以在它們外面構建一個所謂的“安全層”,但實際上很難對這些模型的行為提供任何形式的保證。這也在一定程度上限制了它們的應用范圍。
我們目前仍然處于生成式AI的實驗時代。無論是在美國、中國,還是世界其他地方。初步的結果表明,許多任務可以通過生成式AI顯著加速,并帶來更高質量的成果。結果的提升取決于用戶的經驗水平。例如,管理咨詢行業的效率可以提高15%到50%,而在編程領域,有些開發者報告稱他們的效率翻倍。
更有趣的是,我們看到一些新任務的效率提升可能是“指數級”的,比如在某些特定領域,效率可能提升100倍。例如,我最近了解到,瑞典對其經濟各個行業進行了全面研究,發現生成式AI在“建筑修復”這一領域的效率提升最為顯著。這是一個你可能不會想到會有巨大影響的領域,但確實如此。
不過,這些預測需要謹慎對待,因為我們還不知道是否能夠解決生成式AI的可靠性問題。
符海京:這背后的關鍵是什么?作為一名科學家、實踐者和教育者,你認為這個轉型成功的最重要因素是什么?
Mark Nitzberg:我認為,任何重大自動化技術的共同主題是:它必須適合其用途。如果我們將生成式AI引入我們所做的每一個領域,就需要確保我們對沒有它時的操作方式有清晰的理解。這樣,當我們引入AI并使其更高效、更快速地運行時,我們不會將之前手動操作中的“問題部分”也自動化。
因此,我們在研究中心特別關注那些可能會失敗的系統,并設計它們時確保:如果發生故障,我們能夠追蹤到問題的來源,然后進行修正,避免未來再次出現類似的故障。這種設計理念是任何工程系統中都應具備的,例如飛機、核電站或大型水電大壩。然而,目前生成式AI才剛剛開始讓我們初步理解它是如何運行的。
創業者應在細分行業中探索
符海京:數據是生成式AI的”汽油”,巨型企業比如美國的significant seven和中國的百度具有競爭優勢,創業者應該如何在這場轉型競賽中取勝?
Mark Nitzberg:數字化工具正在為下一代提供應用AI的基礎,而這個領域的應用仍然是“廣闊未定”的。創業者可以在各個行業中探索如何應用這些工具。
例如,我們正在與加州大學舊金山分校(UCSF)醫療中心合作,開發一種變換器模型的變體。與傳統的語言模型訓練文本不同,我們的模型是基于患者治療的臨床步驟進行訓練的。訓練數據包括數百萬個序列,例如患者首次出現癥狀、進行的測試、可能開出的藥物、后續檢查等。這種訓練方法產生了一種完全不同的變換器系統,它更加“可解釋”。比如,當模型建議進行胸部掃描時,你可以理解它這樣建議的原因可能是因為發現了肺部問題。這是一種新的方向,其核心仍然是“適合用途”。
智能體更加考驗可靠性和安全性
符海京:我想談談AI的“推理”reasoning能力。我會分享微軟今天在Yahoo Finance上的最新聲明。他們提到自動化代理(automation agents),并使用了“AI可以更好地推理”的說法,同時也提到它們能夠以更復雜的方式感知環境。之前我們在暗物智能 DMAI致力于認知AI的層次架構 (cognitive AI framework),你對微軟今天的聲明怎么看呢?
Mark Nitzberg:這是一個非常有趣的方向,也是生成式AI未來發展的關鍵領域之一。微軟提到的實際上是AI從工具型系統向更高級智能體(agent)轉變的標志。這意味著AI不僅能夠處理輸入和輸出,還可以在復雜環境中感知、推理并采取行動。
但這里需要注意的是,所謂的“推理”并不是傳統意義上的邏輯推理,而是基于大量數據的統計相關性和模式識別。換句話說,當前的AI在某種程度上模擬了人類的推理過程,但它并不真正“理解”所做的事情。這種能力的提升更多依賴于模型的復雜性和訓練數據的質量。
此外,環境感知的復雜性也提出了新的挑戰。AI需要處理多模態數據(例如文本、圖像、聲音等),并在動態環境中實時做出響應。微軟的聲明表明,他們的目標是將AI從靜態的生成工具轉變為動態的智能體,能夠感知環境、推理因果關系并做出自主決策。
然而,這種轉變也帶來了更多的問題,尤其是關于可靠性和安全性的問題。一個能夠自主感知和推理的系統,如果沒有明確的限制和控制機制,可能會帶來意想不到的后果。因此,我們需要在開發這些系統時,確保它們的行為是可預測的,并且能夠在失敗時追蹤問題來源并進行修正。
符海京:你提到的可靠性和控制機制確實是一個關鍵問題。那么,你認為在這一領域,接下來的研究重點應該是什么?
Mark Nitzberg:我認為接下來的研究重點應該集中在兩個方面:一是多模態數據的整合,二是因果推理的增強。
在多模態數據整合方面,我們需要開發更強大的模型,能夠同時處理和理解來自不同來源的數據。例如,一個智能體可能需要同時處理攝像頭捕獲的視覺數據、麥克風捕獲的音頻數據以及用戶輸入的文本指令。這需要模型具有更高的靈活性和適應性,同時也需要更高效的計算資源。
在因果推理方面,我們需要讓AI不僅僅停留在相關性分析上,而是能夠真正理解因果關系。這對于復雜環境中的決策至關重要。例如,在醫療診斷中,AI需要知道某種治療方法為什么有效,而不僅僅是基于歷史數據的模式預測。這種因果推理能力的提升將使AI在關鍵領域(如醫療、自動駕駛和金融)中更具實用性和可靠性。
總的來說,AI的未來在于從“工具”向“智能體”轉變,但這一轉變需要我們在技術、倫理和政策層面上進行全面的探索和協調。
符海京:這意味著AI可以執行更復雜的一系列任務。你是否樂觀地認為這真的在發生,還是說它依然是一個不可預測的“黑箱”?在推理方面,Satya Nadella(微軟 CEO)提到,直到最近,語言模型的行為中確實存在一個很大的“缺口”。它會給出一些荒謬的建議,無法正確地進行推理。比如,如果你告訴它“海倫是大衛的母親”,它無法推理出“大衛是海倫的兒子”。在這方面,它的推理能力并不完善。不過,經過顯著的訓練、架構上的調整和優化,它的表現確實有了很大的提升。
Mark Nitzberg:然而,我們仍然不知道這種提升的極限在哪里。同樣,也沒有任何可靠的保證。所以我認為,微軟所談論的是讓這些系統在某些特定任務中達到一個實用的可靠性水平——而這些任務以前是無法實現的。但我不確定是否可以對這些系統在高關鍵性任務中使用下注。因為即便是一個小小的請求變化,也可能導致答案產生巨大的差異,這種不確定性使它們的可靠性受到質疑。
因此,目前仍然存在爭議。微軟聲稱這些技術即將解決我們所有的問題,這是有一定道理的,但我們也有理由保持謹慎。我認為,測試方法和評估機制在這方面很有幫助。我們可以盡可能地進行詳盡的測試,但即便如此,這些系統仍然只是充滿潛力,結果如何還有待觀察。(作者|蔡鵬程,編輯|劉洋雪)





京公網安備 11011402013531號