henry 發自 凹非寺
量子位 | 公眾號 QbitAI
人多,好辦事。agent多,照樣好辦事!
在最新的Andrew’s Letters中,吳恩達老師就指出:并行智能體正在成為提升AI能力的新方向。
信中,他描繪了這樣的一些場景:
多個agent并行抓取分析網頁,更快速地生成深度研究報告。多個agent協同處理代碼庫的不同部分,加快編程任務完成速度。多個agent在后臺并行工作,同時由一個監督agent向用戶提供反饋,實現并行異步控制。
在這些場景中,多個agent協作,就像一支高效的agent team同時處理不同任務,速度快、效率高。
![]()
這為我們理解AI能力的提升提供了新視角——
不僅僅依靠更多的數據和算力,更重要的是讓多個智能體協同并行工作。
并行智能體才是未來
以往,當我們談論AI能力的提升時,更多依賴的是所謂的“力大磚飛”的scaling law,也就是希望通過更多的數據和算力來獲得性能的提升。
據吳恩達所說,這一點在他之前在百度和OpenAI的工作中,已得到了充分驗證。
但問題是,這些方法往往需要長時間才能輸出結果。
相比之下,并行運行的agent提供了另一種方式:在提升性能的同時,讓用戶無需長時間等待結果。
此外,大語言模型token成本的不斷下降,也讓多個agent并行處理的方法變得可行。
但就像網友指出的:如何協調多個agent呢?
咱光給方向,不給答案也不行啊。
![]()
對于這一疑問,吳恩達在信中也是有所提及:因為哪怕對于人類來說,將一個復雜任務(比如開發復雜的軟件應用)拆分成小任務并交由下面的多個工程師并行完成,都就極具挑戰,而一旦擴展到更多的并行單元,那么難度將會更大。
同樣的,將任務分解給多個智能體并行執行也并不容易。
不過,凡事要用發展的眼光看問題:
吳恩達以兩篇最近的論文為例,說明了并行智能體研究的發展:
一篇是來自Ryan Ehrlich等人的論文《Code Monkeys:Scaling Test-Time Compute for Software Engineering》。
![]()
簡單來說,這篇論文讓大語言模型在推理時并行生成多個軌跡,來生成多樣化的候選解決方案,從而提高編程問題解決的效率。
其次是Together Mixture Of Agents(MoA)架構,它通過同時利用多個大語言模型來提升性能。
值得一提的是,該架構還能進一步調整分層架構(每層包含的agent數和層數),來進一步提升性能。
![]()
在信的最后,吳恩達總結道:
在如何最優地利用并行agent方面,仍然有大量研究與工程工作需要探索。我相信,能夠高效并行工作的agent數量,就像能夠高效并行工作的人的數量一樣,最終會非常龐大。
最后的最后,我們不妨說句題外話。
2009年,吳恩達在他的經典論文《Large-Scale Deep Unsupervised Learning Using Graphics Processors》中,首次系統性地展示了GPU在深度學習中的大規模應用。
這篇論文不僅證明了GPU計算能顯著提升卷積神經網絡的訓練效率,更預告著深度學習時代的到來。
而這一切的核心,歸根結底就倆字:
并行
[1]https://x.com/AndrewYNg/status/1961118026398617648
[2]https://www.deeplearning.ai/the-batch/agents-running-in-parallel-get-there-faster/
[3]https://arxiv.org/pdf/2501.14723
[4]https://docs.together.ai/docs/mixture-of-agents?utm_campaign=The%20Batch&utm_source=hs_email&utm_medium=email&_hsenc=p2ANqtz--bx7Qwyz4z_x_fNl93PMa-tjsrHFwAsEMSCHyOV1wXdBXA9LRFQJ6RKmk8P7MHd0o7_REn





京公網安備 11011402013531號