前段時(shí)間,AMD在舊金山正式發(fā)布了一系列全新的產(chǎn)品,包括新一代的AI PC處理器、EPYC處理器、GPU加速卡等多款重磅產(chǎn)品。作為英偉達(dá)為數(shù)不多的友商,AMD對(duì)這一波新品寄予厚望,發(fā)布會(huì)還特意邀請(qǐng)了OpenAI、微軟等巨頭的大佬來站臺(tái),然而市場(chǎng)對(duì)其產(chǎn)品卻不看好,其股價(jià)也應(yīng)聲下跌。難道AMD挑戰(zhàn)英偉達(dá)的計(jì)劃,還沒開始就結(jié)束了?
AMD為何追不上英偉達(dá)?
AMD作為目前唯一一個(gè)有能力在GPU加速卡領(lǐng)域向英偉達(dá)發(fā)起挑戰(zhàn)的廠商,其實(shí)很難說他們是失敗者,畢竟除英偉達(dá)之外,其余廠商加起來也是不如AMD能打的。從AMD此次發(fā)布的一系列新品來看,其正在加快追趕英偉達(dá)的步伐,以最新的Instinct MI325X為例,其推理性能甚至比英偉達(dá)剛發(fā)貨的H200還高20%以上。
不過強(qiáng)大的推理性能是靠遠(yuǎn)大于H200的顯存所換來的,MI325X擁有多達(dá)256GB的HBM3E內(nèi)存,這是目前全球性能最強(qiáng)的內(nèi)存,連帶著內(nèi)存帶寬也從5.3TB/s升級(jí)到6TB/s,成為AMD進(jìn)一步拉升MI325X推理性能的一環(huán)。

圖源:AMD
而在AI運(yùn)算性能上,MI325X并沒有比MI300X提高多少,F(xiàn)P16精度下算力為1.3PFlops,作為對(duì)比,英偉達(dá)H200的FP16算力為1.979PFlops,差距仍然十分明顯,更何況英偉達(dá)還提供具有同樣算力性能的H100。
雖然在算力上有著明顯的差距,但是MI325X的功耗卻并不低,根據(jù)AMD透露的消息,其單顆核心的功耗高達(dá)1000W,與英偉達(dá)H200基本持平。在過去的一年里,大多數(shù)企業(yè)都將資源投入到了AI模型的訓(xùn)練中,因此需要大量的算力資源支撐,在部署空間有限的情況下,英偉達(dá)的H100顯然是最好的選擇。
更何況H100是英偉達(dá)在2022年3月份發(fā)布的GPU加速卡,從中也不難看出在芯片算力層面,英偉達(dá)與AMD的技術(shù)差距仍然非常明顯。而且,英偉達(dá)在前段時(shí)間發(fā)布了H100的繼任者B200,算力和推理能力都得到了顯著的提升,其中FP16精度下的運(yùn)算性能直接飆升到5PFlops,是H100的2.5倍,是MI325X的3.8倍。

圖源:英偉達(dá)
3.8倍的算力差距已經(jīng)不是價(jià)格或者功耗可以彌補(bǔ)的差距了,即使你可以通過部署4臺(tái)MI325X服務(wù)器來獲得媲美1臺(tái)B200服務(wù)器的算力,但是也會(huì)面對(duì)更多的維護(hù)、調(diào)試和Debug麻煩。更何況,在多數(shù)情況下,計(jì)算中心的內(nèi)部空間都是有限的,如何在有限的空間里塞入更多的算力,往往是企業(yè)考慮得更多的問題。
所以,AMD在過去的半年時(shí)間里,即使發(fā)布了更具性價(jià)比的MI300X,也依然無法撼動(dòng)英偉達(dá)的地位,甚至不需要去討論生態(tài)等問題,僅僅一個(gè)算力規(guī)模和效率差距就已經(jīng)讓AMD難以招架。
不過AMD的AI業(yè)務(wù)還是得到了不少的訂單,原因主要是英偉達(dá)的產(chǎn)能無法滿足所有需求,外溢的訂單轉(zhuǎn)而被AMD接受,此外如微軟等企業(yè),也在通過采購AMD GPU的方式來降低對(duì)英偉達(dá)的依賴。
只是情況如你所見,微軟、OpenAI、谷歌等企業(yè)最新最大的AI算力集群,仍然都是將英偉達(dá)的H200列為首選。而AMD的MI300X等GPU,則主要被部署到其他數(shù)據(jù)中心,作為云端算力支持進(jìn)行儲(chǔ)備。
如果企業(yè)們?nèi)匀灰訟I算力為基準(zhǔn)去配置數(shù)據(jù)中心,那么AMD想要戰(zhàn)勝英偉達(dá),只能祈禱奇跡發(fā)生,讓他們打造出一款算力效率超過B200的芯片。不過,事情并非沒有轉(zhuǎn)機(jī),隨著AI大模型的訓(xùn)練規(guī)模達(dá)到一定高度,企業(yè)也逐漸將目光投向了應(yīng)用層面,而這就是AMD的機(jī)會(huì)了。
在AI落地端發(fā)力,AMD能否換道超車?
不管是微軟還是OpenAI,所有的AI廠商其實(shí)都在思考一個(gè)問題:AI服務(wù)推廣,或者說:如何讓AI服務(wù)被更多的人使用?
想要解決這個(gè)問題,首先需要搞定AI成本,以O(shè)penAI為例,其在2024年預(yù)計(jì)將面臨50億美元的虧損,其中除了新建數(shù)據(jù)中心所需要投入的資金外,其余大多是維護(hù)和運(yùn)營現(xiàn)有算力中心的成本,而ChatGPT高達(dá)19.99美元/月的高級(jí)訂閱會(huì)員,已經(jīng)讓多數(shù)用戶“搖頭”,不少人都希望OpenAI可以降低資費(fèi),那么就能夠獲得更多的客戶。
實(shí)話說,對(duì)于OpenAI而言,19.99美元的價(jià)格其實(shí)并不能確保其盈利,如果用戶將其用于訓(xùn)練自己的大模型或是其他用途,那么實(shí)際上的算力成本會(huì)大大超出OpenAI向你收取的訂閱費(fèi)用,這也是為何前段時(shí)間他們突然開始加大力度封禁部分違規(guī)使用的賬戶,正是因?yàn)槌杀镜募ぴ稣谶M(jìn)一步降低OpenAI的利潤(rùn)。
雖然很多時(shí)候我們都將GPU加速卡的AI算力看作是一個(gè)整體,但是在實(shí)際的應(yīng)用中,用于預(yù)訓(xùn)練的算力性能與用于推理的算力性能,其實(shí)并不能直接等同。其中,推理性能主要決定的是在已加載的AI模型下,GPU能夠提供的運(yùn)算性能,在功耗固定的情況下,推理算力越強(qiáng),GPU在執(zhí)行AI任務(wù)時(shí)的成本就越低。
換言之,如果企業(yè)想降低AI服務(wù)的成本,讓AI可以被應(yīng)用到更廣泛的領(lǐng)域,那么推理效率高的GPU就是必選項(xiàng)。那么AMD MI325X的定位就很明顯了:為企業(yè)提供更低成本的AI算力,支撐AI應(yīng)用落地。
實(shí)話說這個(gè)賽道英偉達(dá)不是沒有注意到,今年才開始交付的H200就是為了解決推理成本發(fā)布的產(chǎn)品,其核心雖然仍是H100,但是卻擁有141GB顯存(H100為80GB),同時(shí)也對(duì)顯存帶寬進(jìn)行了升級(jí),進(jìn)一步強(qiáng)化推理性能。

圖源:英偉達(dá)
但是這還不夠,隨著AI應(yīng)用的規(guī)模擴(kuò)大,AI服務(wù)對(duì)算力的需求也在呈現(xiàn)爆發(fā)式的增長(zhǎng),而H200的供應(yīng)卻難以滿足需求,這時(shí)候MI325X的優(yōu)勢(shì)就體現(xiàn)出來了,不僅擁有高達(dá)256GB的顯存,而且價(jià)格比H200更低,供應(yīng)也比H200充足。
所以,你可以看到微軟、OpenAI等企業(yè)為AMD站臺(tái),不僅僅是為了降低英偉達(dá)對(duì)他們的掌控力,同樣也是為了可以提前買到更多的MI325X,并將其作為普及AI服務(wù)的關(guān)鍵。
至少,在英偉達(dá)的B200批量出貨前,MI325X都會(huì)是數(shù)據(jù)中心的優(yōu)選,至于B200發(fā)布后如何應(yīng)對(duì),也就只能見招拆招了。畢竟從目前的情況來看,AMD不大可能在2025年前開發(fā)出性能接近B200的GPU,此前海外媒體推論,最快要到2026年,AMD才可能擁有接近B200性能的GPU,屆時(shí)英偉達(dá)的B200乃至GB200(2*B200組成的單個(gè)GPU)都已經(jīng)批量發(fā)貨,AMD也將面臨與今年年初類似的尷尬場(chǎng)景。
只能說AMD還是有機(jī)會(huì)的,即使無法撼動(dòng)英偉達(dá)的領(lǐng)先地位,也可以搶下不少的市場(chǎng)份額。AI已經(jīng)開始全面融入我們的生活,不管你承不承認(rèn),很多領(lǐng)域都已經(jīng)與AI產(chǎn)生了聯(lián)系,隨著AI的進(jìn)一步普及,也將更多地參與到民生經(jīng)濟(jì)中,為了維持AI社會(huì)的運(yùn)轉(zhuǎn)將需要龐大的算力,遠(yuǎn)非現(xiàn)在的數(shù)據(jù)中心可以滿足的。





京公網(wǎng)安備 11011402013531號(hào)