![]()
作者 | Yoky
郵箱 | yokyliu@pingwest.com
Perplexity 每一次納入新模型,都是很強的信號:這一次,亮的是 Kimi K2。
7 月 13 日,Perplexity 聯(lián)合創(chuàng)始人兼 CEO Aravind Srinivas 在 X 上發(fā)布消息:“Kimi K2 的內(nèi)部評測結(jié)果非常驚艷,我們很快會啟動 post-training。”
![]()
Perplexity的站臺,讓K2在開源社區(qū)的熱度繼續(xù)飆升,這種盛況并不陌生——上一次出現(xiàn)類似的轟動效應,正是Perplexity宣布選擇納入DeepSeek-R1的時候。
這背后反映出一個有趣的現(xiàn)象:對于全球開發(fā)者來說,Perplexity用不用某個開源模型,實際上已經(jīng)演變成了一個重要的風向標。它所指向的,不僅僅是技術(shù)優(yōu)劣,更是開源模型能否經(jīng)受住真實產(chǎn)業(yè)環(huán)境考驗的關(guān)鍵信號。
AI搜索是離“真實世界任務”最近的試煉場,而Perplexity對模型的需求遠不止“便宜”這么簡單。
Aravind曾在Reddit上解釋為什么沒有接入GPT-4.5:“GPT-4.5的解碼速度只有11個token/秒,相比之下,4o是110個token/秒(快10倍),我們自己的Sonar模型是1200個token/秒(快100倍)。這導致用戶體驗不佳,因為他們期望快速、準確的答案。”
![]()
換句話說,實時響應和低延遲是選型的生死線。Perplexity的峰值請求量可達日常十倍,任何超過兩秒的等待都會顯著降低用戶體驗。在vLLM + FP8實測中,K2的MoE架構(gòu)僅激活32B參數(shù),在相同硬件條件下輸出速度比R1快一倍,且單位成本更低,這正是高并發(fā)場景下經(jīng)濟與性能的最佳平衡點。
今年4月,Aravind預告了Perplexity的系列新功能,他強調(diào)這不是簡單的產(chǎn)品改動,而是底層模型的重構(gòu):“我們需要重寫基礎設施才能大規(guī)模實現(xiàn)。”
他描述的核心功能是更強大的深度研究代理,能夠思考30分鐘或更長時間,“包括工具使用、交互式和代碼執(zhí)行功能,就像Manus等最近的原型所展示的那樣。”
這本質(zhì)上是一個純Agent模式:給定自然語言需求,模型必須自主拆解任務、調(diào)用工具、執(zhí)行代碼,最終生成完整報告。這種能力恰好與Kimi K2的“模型即Agent”理念完全對齊——K2不是把Agent能力當作后訓練插件,而是在預訓練階段就將原生Agent技能刻入權(quán)重。
K2在訓練階段引入了數(shù)百萬條合成Agent任務,覆蓋搜索、瀏覽器、日歷、Python、SQL等17種真實工具調(diào)用場景。模型學會在單一會話內(nèi)連續(xù)編排16-20步操作,無需人類編寫工作流。官方演示中,K2用16次IPython調(diào)用將13萬行原始數(shù)據(jù)完成清洗、建模、繪圖并輸出交互網(wǎng)頁報告,全程零人工干預——這直接對應Perplexity設想的“30分鐘自主研究”。
當然,選擇開源模型的更深層原因在于完整的控制權(quán)。擁有完整權(quán)重意味著Perplexity可以任意進行LoRA、RLHF、工具蒸餾,無需擔心調(diào)用頻率、并發(fā)上限或隱私合規(guī)問題。K2采用MIT改協(xié)議,月活低于1億即可商用,Hugging Face直接提供fp8/fp16全套權(quán)重,128K上下文窗口足夠一次性處理整份財報。對Perplexity而言,這意味著“模型-索引-工具”三層架構(gòu)可以完全私有化,不再受任何閉源條款約束。
Perplexity 在其發(fā)展過程中,逐步從依賴 OpenAI 的 GPT 模型轉(zhuǎn)向使用開源模型,并在此基礎上進行了自研和微調(diào)。
2023年下半年,Perplexity 宣布推出兩款新的“pplx-7b-online”和“pplx-70b-online”,分別基于開源模型 Mistral-7b 和 LLaMA 2-70b 構(gòu)建。“我們從LLaMA-2發(fā)布之日起就開始使用開源模型,”Aravind Srinivas說道。
從模型特點來看,Mistral-7B以輕量化和高速度成為早期嘗試,驗證了小模型在特定任務的可行性;Llama-2-70B提供了更廣的知識覆蓋面;隨后,Perplexity還采用了Code Llama-34B,補強了代碼相關(guān)的垂直能力。
真正的轉(zhuǎn)折點出現(xiàn)在2025年2月,DeepSeek-R1讓Perplexity完成了從“使用開源模型”到“基于開源模型自研”的關(guān)鍵跳躍,獲得了完整的權(quán)重控制能力。而后,Perplexity又繼續(xù)深度調(diào)優(yōu)Sonar模型,展現(xiàn)了自研能力的成熟,專門針對搜索問答場景進行優(yōu)化。
如今選擇Kimi K2,正是這一戰(zhàn)略的最新體現(xiàn)——不僅在速度和成本上優(yōu)于R1,其原生Agent能力更完美契合了“30分鐘自主研究”的產(chǎn)品需求。
綜合來看,Perplexity的模型選型必須在高性價比與高性能之間找到平衡,同時滿足特定的產(chǎn)品需求。由于目前尚無開源模型能完全達到其標準,Perplexity只能階段性地選擇最優(yōu)解,這種“擇優(yōu)而用”的策略反而讓其成為了開源模型能力評判的重要風向標。
![]()
點個愛心,再走 吧





京公網(wǎng)安備 11011402013531號