![]()
機器之心發布
機器之心編輯部
11 月 3 日,全球知名游戲博主 PewDiePie 發布視頻,展示其自建本地 AI 系統的全過程。該視頻目前瀏覽量已經超過 300 萬,視頻標題則赫然寫著雙關梗 “STOP: Using AI Right now”。
到底 PewDiePie 要停止使用怎樣的 AI?又要開始使用怎樣的 AI?
![]()
他投入 2 萬美元,組裝了包含 10 塊英偉達 GPU(含 8 塊改裝版 RTX 4090 和 2 塊 RTX 4000 Ada)的本地系統,支持 700 億至 2450 億參數的大模型運行,全程無需依賴云計算。 通過 vLLM 框架,他試驗了 Qwen-235B 等模型,構建了具備搜索、記憶、RAG(檢索增強生成)和音頻輸出功能的定制化 AI 界面。
要知道 PewDiePie 是海外游戲博主頂流中的頂流,Youtube 粉絲超 1.1 億,Ins 粉絲 2 千萬。他下場部署本地 AI 引起全網巨大轟動。
一夜之間,本地部署 AI 大模型成為討論熱度極高的話題。
![]()
![]()
![]()
為什么本地 AI 的熱情一點即燃?
這要先從本地 AI 的特性說起。
在傳統 AI 訂閱模式中,大模型 + 云服務 = 賬號 + API Key + 賬單。
你只是在租用大公司的算力 + 模型 + 前端,這個環節里沒有任何東西是屬于你的。
你喜歡的模型隨時可能被修改和替換你的人生經驗和記憶變成云上的共享資產你辛苦 “養成” 的 Agents 其實也在為千萬用戶提供一樣的服務
而在本地 AI 系統里,你的設備 = 你完全掌控的 AI 土壤。
隱私無憂。關于 AI 大廠如何管理及使用用戶數據醫療記錄、公司文檔再也不用上傳第三方。性能全掌控。本地推理意味著大大減少復雜外在環境的不可控性。再也不用忍受 Chatbot 想半天以后告訴你 “網絡錯誤,請重試”。模型自由選用。在 gpt-5 被大家詬病但一眾廣受好評的就模型被一刀切拿掉的同時,開源模型越來越卷。幾乎每周都有新的模型推出,小而美到巨無霸,選擇非常多,統統供你差遣。
本地 AI 的黃金價值:隱私 + 性能 + 可組合性
然而,打造自己的 AI 實驗室聽起來似乎是一件門檻很高的事情。
為了跑最新的大模型就去購買幾張 A100、幾張 4090 并不是普通用戶會去考慮的選擇。
其實你有沒有想過 —— 一臺 M3 Ultra Mac Studio、一臺游戲本、再加上隔壁工位的 Windows 主機,就能組成一個媲美企業級 AI 推理集群的「本地超算網絡」?
本地 AI 新貴:Parallax
大家可能已經熟知 LMStudio、Ollama、Exo 等本地 AI 項目。而近期,一個叫 Parallax 的開源 AI 項目又頻頻出現在開源 AI 行業朋友圈中。阿里千問、Kimi、智譜 Z.ai、MiniMax、SGLang/LMSys 通通轉發打 call 。
![]()
![]()
![]()
![]()
除了活躍的朋友圈,Parallax 更在 Product Hunt 沖上日榜第一, AI 產品周榜第四。
![]()
我們非常樂意看到更多團隊為大家帶來強力本地 AI 工具,讓越來越多人擁有和創造 AI,而不只是從大公司租用閉源服務。
什么是 Parallax?
Parallax 不只是一個工具 —— 它是自主本地 AI 時代的全自主化操作系統。
就像當年 Linux 挑戰 Windows,今天,Parallax 正在挑戰 “AI 必須上云” 的霸權邏輯。
它是全球首個「全自主 AI 操作系統」,由 Gradient 團隊打造并開源,Parallax 的目標只有一個:
讓每個人都能掌控自己的 AI ,不再依賴云端大廠。
該系統支持在 Mac、Windows 等異構設備上跨平臺、跨地域部署大模型,讓用戶完全掌控模型、數據與 AI 記憶。Parallax 內置網絡感知分片與動態任務路由機制,可根據推理負載實現智能調度,在單機、本地多設備、廣域集群三種模式間無縫切換。目前,Parallax 已兼容 Qwen3、Kimi K2、DeepSeek R1、gpt-oss 等 40 余種開源大模型。開發者可以進行本地部署,以完全自主的方式構建并運行編程助手、個人智能體,多模態生成等多種 AI 應用,將所有敏感數據與控制權限均保留在本地。
![]()
![]()
Parallax 最獨特的優勢?
支持異構設備組網
不像大部分框架只支持單機 Host,Parallax 支持任意設備的組合。無論是單 Mac Studio、PC + Mac Book Pro,還是本地 Mac Mini 集群,Parallax 都能無縫支持。Parallax 為不同模型與場景準備好了三種模式,實現本地 AI 無縫擴容:
單機模式 (LocalHost):在個人設備上部署模型LAN 集群 (Co-Host):與朋友或同事組建本地集群,部署較大的模型WAN 集群 (Global Host):通過廣域網,與遍布全球的機器一起部署和運行超大模型
為本地設備提供服務器級別性能優化
通過動態 KV 管理與連續批處理,Parallax 的目標是媲美商業服務器的高并發,可以為你的個人設備帶來更高吞吐量。隱私與性能,無需做選擇。
![]()
實測:在 M3 Ultra + RTX 4080 組合下,Parallax 推理 Llama-3.8B 在單 GPU 本地部署場景中,相對 llama.cpp 推理速度提升了 40% 以上;在 LAN 集群場景中,相對 Exo 則減少了一半的 time-to-first-token;如果組成 GPU 池進行任務調度,相對 HexGen 總 Throughput 提升 3.2 倍!
![]()
目前,Parallax 支持在 GPU 和 Apple Silicon 上無縫運行 40 + 模型,兼容 Windows、MacOS、Linux 三大操作系統,讓分布各地、不同配置的設備能夠協同工作。
如何上手?
Parallax 的 Github Repo 還是比較清晰的,無論是什么類型的電腦都可以按照引導開始上手。
小編用自己 + 同事的 2 臺 Macbook Pro (M4 Pro 芯片) 上成功跑上了 Qwen 235B,現在已經不怎么用 ChatGPT 來處理日常需求了,黑科技打卡成功?。
推薦感興趣的 AI 愛好者,或者重度硬件愛好者可以前往嘗試,看看怎么組合自己的設備運行喜歡的模型:
https://github.com/GradientHQ/parallax
如果你是科研黨,想要了解更多 Parallax 的背景和測試環境,他們的論文也值得一讀。
http://arxiv.org/abs/2509.26182v1
宣布開源后,Parallax 團隊也在持續更新,支持了包括 Kimi K2 Thinking 等最近一些廣受歡迎的大模型。希望早日看到他們對多模態模型的支持,這將進一步提升本地 AI 的想象空間。
文末彩蛋
本來這篇文章就在這里告一段落了。但是發文前,突然發現 Parallax 最近發布了一個活動,類似小型黑客松。參與門檻很低,獎品卻很給力, 大家有興趣的話不妨參與。
你只需要以圖片、視頻等方式記錄下自己使用 Parallax 搭建與運行本地 AI 的成果,并在社交媒體發帖,就可以參與到評選當中。大獎是一臺 DGX Spark 與若干臺 Mac Mini。
在小紅書搜索 “我的 AI 實驗室”,就可以了解更多詳情了。活動到月底結束,要參與的朋友們趕快嘗試起來吧。
![]()





京公網安備 11011402013531號