美西時間12月2日早8點,“云計算春晚”亞馬遜云科技 re:Invent 2025大會迎來重磅環節,亞馬遜云科技首席執行官 Matt Garman在兩個小時的高強度輸出中,發布了一系列產品和服務。
自研AI芯片Trainium和Nova模型都足夠引人注目,這也是行業行尤為關注的兩個極端,上至模型,下至芯片,模型天梯榜上你方唱罷我登場,AI芯片前有英偉達后有谷歌TPU等,然而行業往往容易忽略一個關鍵的事實:
僅靠模型和芯片無法跑通大模型商業化的正循環,真正讓大模型的價值落地,需要在硬件與軟件的每一層進行優化,芯片和模型是其中的重要組成,但不是全部。
“而這正是只有亞馬遜云科技能做到的。事實證明,沒有捷徑可走。”Matt Garman如此表示。
Matt Garman的自信,從哪來的?
Matt Garman的三個問題,AI產業的真正拐點
不論是推出第一個產品S3的時候,還是AI正在重塑一切的當下,亞馬遜云科技都保持著第一性原理。
Matt Garman表示,每天驅動我們的,是讓所有人都擁有自由創新的能力。這從亞馬遜云科技誕生的第一天起就是我們的使命。我們希望讓宿舍里的學生、車庫里的發明者,都能夠訪問所需的技術、基礎設施和能力,從而構建他們所想象的一切。
在20年前,這幾乎是不可能的。開發者無法在不投入大量時間和資金的情況下獲得所需的服務器或算力,而那時他們花了太多時間在采購服務器、管理基礎設施上,卻沒能真正用在構建創新上。
![]()
“為什么開發者不能專注于構建,而不是花時間在基礎設施上?為什么不能把實驗所需的時間和成本降到接近零?為什么不能讓每一個想法都成為可能?”Matt Garman這三個問題,就是亞馬遜云科技一直以來要回答的核心問題。
過去二十年,亞馬遜云科技幾乎實現了目標。亞馬遜云科技如今已發展成為一家1320億美元規模的業務,同比增長速度加快至20%。僅在過去一年里,其業務營收新增220億美元,絕對增長數字超過《財富》500強企業中一半以上公司全年的收入規模。
亞馬遜云科技如今擁有全球規模最大、部署最廣的AI云基礎設施。全球數據中心網絡覆蓋38個區域、120個可用區,并且已經宣布規劃新增三個區域。僅在過去一年,就新增了3.8吉瓦的數據中心容量,規模位居全球首位。
但,技術是永無止境的,大模型來了,開發者們又要再一次面對那些舊問題。“我們仍然處在 AI 所能帶來的未來的早期階段,這項技術的迭代速度比我們任何人以往見過的都要快。就在不久之前,我們大家都還在測試和試驗聊天機器人,而現在幾乎每天都有新東西出現。但當我與客戶交流時,包括在座許多朋友,你們其實還沒有看到與AI承諾相匹配的回報——AI的真正價值尚未完全釋放,不過這一切正在快速改變。”Matt Garman說。
坦白講,起初外界看到亞馬遜云科技在模型層和芯片層,沒能取得碾壓性的優勢,市場對亞馬遜云科技的預期有所降低,而當大模型越來越落地之后,一個真正的拐點浮現——AI Agent。
AI助手正在逐漸讓位于AI Agent。它們能夠理解意圖、執行任務,并自動處理工作,也是在此階段,企業從AI投資中獲得實質性回報。
“我相信,AI Agent的出現正在把我們帶到AI發展的關鍵拐點。AI正在從技術奇觀轉變為真正帶來實際價值的能力。”Matt Garman表示,他甚至將AI Agent類比為互聯網或云的出現。“未來每家公司、每一個可以想象的領域中都會運行著數十億個Agent。”
如此便能看出,亞馬遜云科技的真實意圖,并不是為了替代英偉達、谷歌而做Trainium自研芯片,也不是為了打敗OpenAI和Anthropic而做Nova模型,亞馬遜云科技關心的是——
Agentic AI時代,如何重新構建AI基礎設施、更好的模型選擇以及將Agent部署到關鍵業務場景所需的整套工具鏈和平臺。
AI基礎設施:既要英偉達GPU,也要Trainium4
Agent發揮價值的先決條件是AI基礎設施。“首先,是擁有最具擴展性、最強大的 AI 基礎設施來驅動一切。其次,你必須擁有一個高度可擴展且安全的云,為你的 AI 工作負載提供最佳性能,并在模型、訓練、定制化以及推理的整個過程中,以盡可能低的成本實現這些能力。”Matt Garman表示。
GPU依然是當前AI基礎設施的核心,Matt Garman提到,亞馬遜云科技則是運行 GPU 的最佳場所,作為第一家在云上提供視頻GPU 的廠商,亞馬遜云科技在大規模 GPU 集群的穩定性與可靠性上建立了全行業領先優勢,甚至到了調試BIOS以避免GPU重啟這樣的細節。
P6E GB300系列正式發布,采用英偉達最新的 GB300 NVL72 系統,英偉達自家的大規模 GenAI 集群 Project Ceiba,就運行在亞馬遜云科技上;OpenAI 也在積極使用亞馬遜云科技來支撐其核心業務。
據悉,OpenAI等大型企業正在使用擁有數十萬顆 GPU 的 EC2 UltraServers 集群,目前基于 GB200,且即將升級至 GB300 系列。他們還會將規模擴展至數千萬級 CPU,以管理龐大的 Agent 工作流,支撐 ChatGPT 等應用的全球訪問需求,并用于訓練下一代模型。
下面為你整理為更正式、書面化的段落,結構更緊湊、表達更穩健,可直接用于發布稿、技術材料或領導講話稿:
本次推出的Amazon AI Factories是大型企業格外關注的基礎設施形態。通過這一產品,客戶能夠在其自有的數據中心內部署由亞馬遜云科技提供、并完全獨享的 AI 基礎設施
![]()
簡單理解,AI Factories是一個“客戶專屬的亞馬遜云科技私有區域”——客戶利用自身已有的數據中心空間與供電能力,同時依然能夠訪問亞馬遜云科技領先的 AI 訓練集群、最新一代 Nvidia GPU,以及 Amazon SageMaker、Amazon Bedrock 等核心 AI 服務。
AI Factories 為單一客戶獨立運行,提供物理與邏輯上的嚴格隔離,同時保持與亞馬遜云科技一致的安全性、可靠性與可用性,并滿足各地在合規與數據主權方面的最高標準。
接下來是關注度極高的AI芯片,亞馬遜云科技已經構建出覆蓋訓練、推理和通用計算的完整算力矩陣,其中,Trainium 是其專門為 AI 工作負載研發的芯片,很多人以為它是為訓練任務打造的超強芯片,但是不止于此,Trainium 2 目前已成為全球性能最強的推理系統之一。
如今在 Amazon Bedrock 上運行的大部分推理任務都是由 Trainium 驅動的,譬如企業客戶在 Bedrock 上使用最新一代的 Claude 模型,這些推理全部運行在 Trainium 上,并且提供了業界領先的端到端響應速度。
據悉,亞馬遜云科技已經部署了超過 100 萬顆 Trainium芯片,之所以能夠以如此速度部署百萬級規模,是因為亞馬遜云科技掌控整個技術棧,從芯片、系統、網絡到數據中心端到端優化,部署效率極大提高。
Matt Garman透露,“我們在數據中心部署Trainium2的速度,比我們過去部署任何芯片的速度都快好幾倍。這是我們迄今部署速度最快的AI芯片,我們現在的銷售速度幾乎和產能齊平。僅訓練芯片這一部分,今天已是一個數十億美元規模的業務,并且仍在快速增長。”
![]()
亞馬遜云科技在去年官宣布的新一代芯片 Trainium 3,也有了新進展,目前Trainium 3 UltraServers 正式可用,這是目前行業最先進的服務器之一,搭載亞馬遜云科技首款 3 納米 AI 芯片,為大規模 AI 訓練與推理提供業內領先的性價比。
與 Trainium 2 相比, Trainium 3 實現了顯著飛躍:計算能力提升 4.4 倍、內存帶寬提升 3.9 倍,且每兆瓦功耗可處理的 AI tokens 數量提升 5 倍,最大規格的 EC2 Trn3 UltraServers 能夠將 144 顆 Trainium 3 芯片構建為單一 scale-up 域,并通過定制的 Neuron Switch 網絡互連,在單個實例中提供 362 FP8 petaFLOPS 的算力以及超過 700 TB/s 的聚合帶寬。
在更大規模上,其自研的EFA 網絡能夠將這些能力擴展至由數十萬顆芯片組成的超大規模集群。行業中基本沒有其他廠商可以實現,因為它需要在系統層級實現全面協同:包括多類型的定制芯片、同時具備 scale-up 與 scale-out 的網絡體系、深度集成的軟件棧以及領先的數據中心基礎設施。
![]()
在實際測試中,Trainium 3 的優勢表現更加直觀。亞馬遜云科技將已在 Trainium 2 上優化的模型權重遷移至 Trainium 3,并對多種開源模型開展推理測試。例如,在 OpenAI 的 GPT-OSS 模型上,Trainium 3 在保持相同單用戶延遲的前提下,每兆瓦功耗可產出的 tokens 數量提升超過 5 倍。
亞馬遜云科技現場預告了下一代芯片——Trainium 4 已進入深度設計階段。與 Trainium 3 相比,Trainium 4 在各項關鍵指標上將實現大幅提升:FP4 計算性能提升 6 倍、內存帶寬提升 4 倍,高帶寬內存容量提升 2 倍,以滿足未來超大規模模型的訓練需求。
模型自由:自研Nova、月之暗面和minimax等上新,還有“開放式訓練模型”
要構建企業級 Agent,首要問題往往是模型選擇,如何在性能、時延與成本之間取得最佳平衡。在實際應用中,“只選擇一個模型”往往無法達到最優,更有效的方式是針對不同任務靈活組合多種模型。
亞馬遜云科技認為,未來不會出現“一統所有任務”的單一模型,而是相信不同類型的優秀模型將長期并存。因此,亞馬遜云科技的策略是持續擴展可用模型范圍,涵蓋開源與專有、通用與專業、大模型與小模型。今年,Bedrock上的模型數量較去年幾乎翻番。
Amazon Bedrock是一套完整的生成式AI平臺,旨在幫助企業從原型快速邁向生產級應用。企業能夠在Bedrock中選擇最適配的模型、基于自身需求進行性能定制、將模型與業務數據深度整合,并靈活加入安全機制。所有能力均運行在 AWS 全面的安全體系之上。
目前,Bedrock已被 BMW、GoDaddy 等全球客戶廣泛采用。與去年同期相比,構建在Bedrock上的客戶數量增長超過兩倍;已有逾 50 家客戶單日處理的 token 數量突破 1 萬億,使用場景覆蓋眾多超大規模應用。
![]()
本次大會上,亞馬遜云科技進一步擴展了開源模型生態,正式引入包括 Google Gemma MiniMax M2、kimi k2、NVIDIA Nemotron 在內的一系列新模型。同時,來自 Mistral AI 的最新開源權重模型也將同步登陸 Bedrock,包括Mistral Large 3、Mistral 3(3B/8B/14B)。
![]()
自研模型層面,Amazon Nova 系列全面升級至 Nova 2,過去一年,Nova 系列在多模態、語音與嵌入向量等方向全面擴展,已被數萬家客戶使用。
Nova 2提供具備前沿智能、成本優化和低延遲表現的模型。其中,Nova 2 Light特點是一款快速且高性價比的推理模型,適用于廣泛的生產級任務。在指令遵循、工具調用、代碼生成、文檔抽取等關鍵領域,其表現可與 Claude Haiku 4/5、Gemini Flash 2.5 等模型媲美甚至更優,并保持顯著成本優勢。
Nova 2 Pro是一款智能推理模型,專為復雜任務與高級 Agent 能力構建,其在指令理解、工具調用等核心領域的人工評測表現領先于 GPT 5.1、Claude 4.5 Sonnet。
Nova 2 Sonic是新一代 speech-to-speech 模型,具備更自然的對話質量、更低延遲、更廣語言覆蓋與更優成本結構,適用于語音交互類應用。
Nova 2 Omni是業內首個同時支持文本、圖像、視頻、音頻輸入,并能生成文本與圖像輸出的統一多模態推理模型。它可在單一模型中完成全鏈路理解與生成,大幅降低組合多模型的復雜度。
接下來是一個有趣的產品,Amazon Nova Forge,開放式訓練模型。
盡管現有模型已經非常強大,但企業真正的競爭力來源于專有數據與行業知識。目前主流方法如 RAG 與向量檢索雖能提升效果,但仍受限于無法讓模型真正“理解”企業獨特的數據體系。
企業通常面臨兩個選擇,從零訓練基礎模型——成本極高,難以現實;基于開源模型進行微調——效果受限,且存在遺忘核心能力的風險。
因此,亞馬遜云科技思考,能否在“正確的訓練階段”將企業數據注入模型,使其既保留前沿模型的通用能力,又具備企業獨有的專業理解?
![]()
答案就是 Amazon Nova Forge。
Nova Forge首次實現了“開放式訓練模型”理念:企業可訪問多個 Nova 訓練階段的檢查點,在訓練的每一階段,將自有數據與 Amazon 甄選數據深度融合,最終獲得一個僅供企業私有使用的專屬模型(novella),可直接部署到 Amazon Bedrock。
模型不僅保留核心推理能力,還能原生理解企業的歷史數據、行業規律、流程約束與 IP 資產。
以一家硬件制造企業為例,企業擁有數十億 token、數百GB 的歷史設計、制造經驗與故障案例數據。通過從完成約 80% 預訓練的 Nova 2 Light 檢查點出發,將企業數據納入剩余訓練過程,模型可自然學習其行業知識體系。此外,Nova Forge 支持強化學習、遠程獎勵函數等機制,使模型能夠基于企業真實業務閉環不斷優化。
![]()
Agent進入關鍵生產場景,都需要做什么?
當講完上層的模型和底層的芯片之后,Matt Garman的重點才劃到一半,如何Agent部署到關鍵業務場景中,亞馬遜云科技先是拿出了一系列工具,然后親自現場展示了自己的Agent使用情況。
Agent 能夠執行任務、采取行動、進行動態推理,并自主創建工作流以達成目標,它們以非確定性方式運行,這種能力正是其價值所在。但與此同時,傳統軟件時代的工具鏈與基礎設施,已無法滿足自主智能時代的需求。
基于此,亞馬遜云科技推出 Amazon Bedrock AgentCore——一個面向企業級應用場景、專為 Agent 構建的身份與執行平臺。AgentCore 的架構旨在實現高度模塊化與端到端的安全保障。它提供 Serverless 的安全運行時環境,支持 Agent 之間相互調用,并具備完整的會話執行能力。
AgentCore 的 隔離式記憶機制 可同時管理短期與長期上下文,使 Agent 能夠在真實業務環境中持續累積經驗、不斷優化表現。借助 AgentCore,企業可以在私有 Amazon VPC 中安全部署 Agent,并可輕松擴展至數千并發會話,以應對高流量業務場景。憑借極簡化的部署能力,通過拖拽或數行代碼即可在一分鐘內部署一個可運行的 Agent。
據介紹,AgentCore 的客戶采用速度正在呈指數級增長,覆蓋多個高度監管行業與技術密集行業,包括 Visa、澳大利亞國民銀行、力拓集團,以及 Palumi、ADP 等獨立軟件廠商和初創企業 Cohere Health 等。
例如,NASDAQ正基于AgentCore 快速構建面向核心業務的 Agent,在采用 AgentCore 之前,NASDAQ 計劃投入整個工程團隊構建支撐基礎設施,現在這些底層工作已由 AgentCore 接管,使他們能夠將精力聚焦在 Agent 能力本身。
如何確保 Agent 的行為可預測,并能嚴格對齊用戶意圖?這是企業客戶的另一個擔憂.Agent 的強大來自其推理能力與自主能力,但這也意味著傳統的靜態規則無法有效約束其動態行為。就像培養青少年一樣,必須在給予自主性的同時建立清晰的邊界,以避免重大風險。
雖然企業可以在 Agent 代碼中編寫訪問限制,但由于 Agent 會在運行時動態生成和執行代碼,這類限制并不能提供可靠的保護,更難以審計,許多企業并不放心將 Agent 用于關鍵業務流程。
為此,亞馬遜云科技推出了,Policy in Amazon Bedrock AgentCore,確保 Agent 行為可控與可審計。這是一套 實時、確定性、可驗證的策略執行系統,用于規范 Agent 與企業工具及數據之間的交互方式。
企業可以精細定義Agent 可訪問哪些工具與數據、Agent 可調用哪些具體能力,Agent 在何種條件下可執行哪些操作,對內部 API、Lambda、MCP 服務器與 Salesforce、Slack 等第三方服務實現統一管控,策略可以通過自然語言編寫。
簡單舉個例子,“當退款金額超過 1000 美元時,禁止執行退款操作。”系統會將該規則自動轉換為開源策略語言,并在 Agent Gateway 中以毫秒級速度進行評估。所有 Agent 行為都將在訪問工具或數據前接受策略校驗,確保其嚴格在企業設定的邊界中運行。
此外,在構建 Agent 的過程中,僅對運行指標進行監控是不夠的。企業同樣需要回答以下核心問題,Agent 的決策是否正確,是否調用了最合適的工具,其回答是否符合合規與品牌要求,能否在模型升級后保持行為一致性等。
傳統做法需要數據科學家搭建復雜的評估系統,并維護大量基礎設施。而即便有測試環境,也難以預測 Agent 在真實世界中的表現。
為解決這一問題,亞馬遜云科技推出 AgentCore evaluations,讓企業能夠基于真實行為持續評估 Agent 的質量。
evaluations 支持針對正確性、有用性、無害性等維度進行自動評估,使用預構建評估器,或自定義模型與提示詞,在模型升級前后運行一致性驗證,在生產環境捕捉質量下降。
所有評估結果會直接在 CloudWatch 中展示,與 AgentCore 的可觀測性指標統一呈現,如此,將過去需要專業團隊與復雜基礎設施才能完成的工作自動化,使任何團隊都能輕松構建高質量、可提升的 Agent。
此外,當下開發團隊所面臨的核心挑戰之一是技術債,根據埃森哲的測算,僅在美國,技術債務每年給企業帶來的成本就高達 2.4 萬億美元;Gartner 的數據顯示,如今企業多達 70% 的 IT 預算都花在維護遺留系統上。
亞馬遜云科技推出了 Amazon Transform,幫助客戶從各類遺留平臺遷移,包括 VMware、大型機以及 Windows .NET 等。在大型機現代化方面,客戶已經借助 Transform 分析超過 10 億行大型機代碼,并將關鍵系統與應用逐步遷移至云端。
但是,遺留系統的形態遠不止這些,還包括 Lambda 函數升級、Python 版本提升、Postgres 升級、從 C 遷移至 Rust 等,企業內部存在大量高度定制、難以標準化的升級需求,例如內部自研語言、專屬 API、私有框架或特定版本庫的升級。
因此亞馬遜云科技提出一個關鍵問題:為什么不支持所有的現代化需求?
![]()
在拉斯維加斯,亞馬遜云科技將一架退役的舊服務器機架吊起并當場引爆,以此象征幫助企業徹底告別技術債務的決心與愿景。
同時,亞馬遜云科技正式推出 Amazon Transform 自定義功能。這一能力允許客戶針對任意代碼、API、框架或運行時構建現代化轉換流程。開發者可以輕松創建專屬的代碼轉換 Agent,實現對任何語言、內部庫以及獨有框架的自動化現代化。
亞馬遜云科技都造了哪些Agent?
亞馬遜云科技本身也有足夠多的場景,其最新的Agent也一并發布出來。首先是Kiro,一個面向結構化 AI 編碼的 Agent 開發環境。
Kiro 能夠將自然語言指令轉化為具備工程可執行性的規范文檔,并由高級 Agent 自動生成完整、可運行的代碼,從而確保最終產出的質量和一致性。它能夠理解提示背后的意圖,在大型代碼庫中高效執行復雜功能開發,并顯著減少人工拆解與溝通步驟。
自數個月前啟動預覽以來,Kiro 已吸引數十萬開發者試用,上周,亞馬遜已決定全面采用 Kiro,將其作為公司內部的官方 AI 開發環境。據Matt Garman表示,在評估了所有主要工具之后,他們認為,若要最大化開發者效率,最佳方式就是加大對 Kiro 的投入。
一位亞馬遜工程師負責的一個大型重構項目,最初評估需要 30 名開發者、18 個月 才可完成。在全面采用 Kiro 后,團隊通過調整工作流、提高任務并行度、充分發揮 Agent 能力,最終 僅用 6 名開發者、76 天 即完成整個項目。
在此基礎上,亞馬遜云科技發布了Kiro自主Agent,它可以獨立處理日常開發工作:交付新功能、診斷 bug、提升代碼覆蓋率,所有操作均在后臺完成,還能與 Jira、GitHub、Slack 等現有工具集成。
Kiro自主Agent就像團隊的一位新成員,它會學習你的工作偏好,不斷加深對代碼、產品以及團隊規則的理解。隨著時間推移,它會將行為、修改、討論和 Pull Request 交織在一起,形成“集體記憶”,推動團隊實現更智能的開發方式。
隨著開發速度加快,僅加速代碼生成是不夠的,安全也必須同步擴展。基于 Kiro自主Agent 的經驗——目標導向、并行擴展、增強自主性,亞馬遜云科技推出了 Amazon Security Agent。
它將安全專業知識前置,確保開發周期中的每一步都遵循最佳安全實踐,包括設計文檔審查,在寫第一行代碼前識別潛在風險;PR 安全審查:在 GitHub 工作流中即時反饋安全問題;按需滲透測試:將傳統緩慢昂貴的流程轉為隨需執行;修復建議:提供直接可用的安全修復方案;多應用并行測試:同時驗證多個系統,消除瓶頸。
例如,當開發者誤用信用卡數據存儲方式,Amazon Security Agent 可在早期檢測風險,防止返工或嚴重問題。通過將安全融入日常開發流程,它讓快速開發與安全發布兼得。
開發完成后,運維規模和復雜度也會隨之增加。亞馬遜云科技推出了 Amazon DevOps Agent,它像高級 DevOps 工程師一樣,主動識別問題、分析根因、提供優化建議,并支持跨云環境與混合環境操作。
![]()
某種程度上,亞馬遜云科技本身就是一家軟件公司,Kiro自主Agent、Amazon Security Agent、Amazon DevOps Agent共同覆蓋軟件生命周期的核心環節,因此也是亞馬遜云科技優先落地的業務場景。
綜合大會可以看出,Agent 的出現,將 AI 從技術奇觀變為企業生產力的新引擎;亞馬遜云科技在 re:Invent 2025 展示的,不僅是芯片、模型或單一技術的領先能力,而是一整套面向 Agentic AI 時代的完整解決方案。
從底層 AI 基礎設施、訓練與推理芯片,到靈活多樣的自研與開源模型,再到面向開發、安全與運維的全生命周期 Agent,亞馬遜云科技正通過端到端的技術協同,重新定義企業級 AI 的可落地能力。
未來的AI競爭,既關乎算力或模型參數的比拼,更關乎誰能真正讓 AI 在業務中高效執行任務、持續創造價值,這是亞馬遜云科技在芯片和模型之間提供的“中間層”能力。(本文作者 | 張帥,編輯 | 蓋虹達)





京公網安備 11011402013531號