作者|楊依婷
編輯|包永剛
當全球科技巨頭在AI算力競賽中投入數千億美元之際,一個新的瓶頸正悄然浮現——數據如何在龐大的AI計算集群中高效流動?
這個被稱為“運力”的命題,正在成為決定AI計算效率的下一個戰場。
“在AI智算網絡中,不只需要算力,還要關注運力。”Credo公司在9月9日的深圳發布會上明確提出了這一判斷,“運力的基礎就是高速互聯——這種互聯貫穿從芯片內部到服務器之間、再到數據中心互聯的每一個層面。”
換言之,解決互聯問題,就是解決運力問題。
算力再強,如果數據傳輸跟不上,也難以真正釋放AI系統的潛能。
也正是在這一判斷下,Credo推出了其新一代旗艦產品——基于臺積電3nm工藝的Bluebird系列1.6T DSP。
這款產品的推出,代表著Credo在高速光互聯領域的又一次技術跨越,也為應對AI算力集群的“運力”瓶頸,提供了一個兼具前瞻性與落地可行性的關鍵方案。
與以往產品相比,Bluebird系列的設計目標明顯更具挑戰:在突破1.6T帶寬的同時,實現“超低功耗”與“超低延遲”的協同優化。這意味著它不只是性能的躍升,更是面向AI時代網絡架構需求的一次結構性革新。
Credo光DSP產品營銷副總裁Chris Collins在會上指出,AI數據中心的光互聯需求正迎來爆發期,根據其調研,“至少有11家公司每年在AI數據中心領域投入超過50億美元,部分公司甚至超過1000億美元,其中約16%用于網絡建設。這對于以太網與光互聯行業而言,是一個前所未有的增長窗口。”
他進一步分析了智算網絡對互聯有著巨大需求的原因——AI網絡與通用計算網絡的差異:“雖然兩者都存在一個帶交換機的以太網,但在AI網絡中,還存在一個完全獨立的后端網絡,用于將所有GPU互聯,形成一個更大的GPU來做大模型的訓練。”正因為如此,AI網絡所需的光收發器數量,至少是通用計算網絡的兩倍多,甚至接近十倍。
這種結構性的變化,使得高速互聯技術從過去的“配套設施”升級為AI計算的“核心基礎設施”,正是在這個技術轉折點上,Credo將其17年在高速連接領域的技術積累,全面押注于解決AI時代的“運力”挑戰。
一、Bluebird 1.6T DSP:更快、更聰明、更節能
當光模塊加速邁向1.6T時代,挑戰早已超越“更快”本身。
“今天大家都在談論1.6T光模塊,但這不僅僅意味著速率更高。”Chris Collins說,“在一秒鐘內,有1.6萬億個0與1通過DSP傳輸,真正的挑戰在于——如何確保每一個比特都被正確且高效地接收。”
![]()
這意味著,在AI訓練和推理場景中,信號完整性與能效的平衡已成為高速光互聯的核心命題。
為應對這一挑戰,Bluebird DSP采用了臺積電3nm CMOS工藝,并在設計中延續了Credo一貫的“定制化優化”設計理念——工程團隊在標準設計單元(cell)基礎上,開發定制的芯片設計單元和時序結構,而非依賴通用標準單元,從而在不犧牲性能的前提下,將功耗優化至最佳水平。
配置方面,Bluebird提供4×224 Gbps和8×224 Gbps PAM4兩種版本,既能滿足800 G高密度互聯需求,也可支撐1.6T光模塊的更高帶寬場景。同時,Credo同步推出了全功能DSP版本與線性接收光模組(LRO)版本,以適配不同規模和架構的AI數據中心部署,包括scale-up與scale-out等多樣化網絡形態。
針對AI集群中GPU間通信的高延遲瓶頸,Bluebird將往返單向時延壓縮至<40 ns,顯著提升大語言模型(LLM)訓練與推理階段的通信效率。
Bluebird不僅關注性能指標,也在系統層面做了深度優化,其內置的全鏈路遙測功能,可實時監控與診斷信號狀態,從而提升系統可靠性與在線時長。這些功能同樣適用于故障隔離、調試與量產測試等階段,幫助用戶提升部署與維護效率。
此外,Bluebird DSP在電口與光口兩端均配置了可調式性能優化功能套件,用戶可根據不同應用場景靈活啟用或關閉特定模塊,以在光器件選型、系統集成及主機ASIC互操作性測試中獲得最佳匹配效果。
憑借定制化架構與工藝優化,Bluebird 1.6T全DSP光模塊功耗低于25W;若采用Credo的線性接收光模組(LRO)方案,功耗可進一步降至低于20W,甚至接近現有800G光模塊的能耗水平。
由此,Bluebird真正實現了“更快、更聰明、更節能”的設計初衷——以1.6T速率突破帶寬極限,以智能架構優化信號完整性與鏈路管理,并以極致能效重塑AI光互聯的新平衡。
二、不止于DSP:構建“運力網絡”的產品矩陣
在Credo的戰略版圖中,1.6T DSP只是“運力網絡”的一個關鍵節點,真正的目標,是構建一條貫穿芯片、模塊與系統的全棧高速互聯鏈——從AEC、PCIe到SerDes IP,Credo正在用十余年的積累,重塑AI數據中心的“互聯底座”。
![]()
早在AI算力爆發之前,Credo就已著手探索“高帶寬、低功耗”的互聯形式,其在七八年前推出的AEC(Active Electrical Cable)產品,通過內置自研的Retimer與Gearbox芯片,可替代傳統高功耗光模塊,在保持信號完整性的同時實現最長7米的機柜內或跨機柜互聯。
![]()
憑借出色的功耗控制與穩定性,AEC迅速在AI服務器中獲得廣泛應用,Credo銷售副總裁楊學賢(Simon Yang)指出:“AEC的應用正在從機架內延伸至跨機架連接。客戶之所以選擇它,是因為它在功耗、可靠性和成本上的綜合優勢。”
他表示:“我以前從未想過銅纜能替代光纖,但現在這正在發生。”
這一趨勢讓AEC成功占據了AI網絡“短距互聯”的關鍵生態位,也為Credo的系統化布局打下基礎。
在短距互聯之外,Credo同樣在服務器內部總線和集群互聯層面發力。
基于AEC技術積累,公司推出了PCIe AEC產品線,以滿足AI服務器中Scale-up場景下GPU與CPU、GPU與GPU之間的高速互聯需求。
更值得關注的是,Credo已滿足PCIe Gen 6標準的產品 – Toucan retimer以及Toucan AEC。Simon介紹,該產品基于7nm工藝與自研SerDes技術,支持更高信號速率,并通過工具PILOT實現鏈路狀態可視化,讓客戶能夠實時監測、分析乃至預測鏈路性能變化。
這意味著,Credo不僅在做“物理連接”,更在構建智能可管理的運力鏈路。
而貫穿上述所有硬件產品與工具的,是Credo更為底層的技術根基——自主開發的硅知識產權(IP),“Credo的創新始于SerDes。它既可以作為獨立IP授權,也能集成到芯片,再進一步擴展到系統級方案。”
從IP到芯片,再到系統,這種“垂直貫通”的創新體系,使Credo能夠在AI時代實現從底層信號處理到系統互聯的全棧優化,這不僅讓公司產品具備一致的技術邏輯,也讓其在多層網絡架構中保持高兼容性與高能效。
隨著AI模型規模不斷擴大、GPU集群愈發密集,‘運力’將與算力并列,成為AI基礎設施的新核心指標。
在AI高速互聯的時代拐點上,Credo正以從SerDes IP到系統產品的全棧創新,構建AI“運力網絡”的新標準——讓數據流動的效率,真正匹配算力的爆發。
雷峰網





京公網安備 11011402013531號