AMD英偉達(dá)“戰(zhàn)火”升級!發(fā)布世界最強(qiáng)芯片瞄準(zhǔn)英偉達(dá)AI“王座”
隨著AI大模型的興起和各類應(yīng)用的層出不窮,以GPU為代表的算力芯片供不應(yīng)求、交期拉長,英偉達(dá)也當(dāng)仁不讓地被推向了“算力霸主”的王座。今年以來,其股價已上漲160%,市值一度突破萬億美元,相當(dāng)于四個AMD、七個英特爾。
然而,作為AI的基礎(chǔ)設(shè)施,算力芯片環(huán)節(jié)的“一家獨大”顯然不是有利于行業(yè)長遠(yuǎn)發(fā)展的生態(tài)。因此,市場不免將更多的期待寄托于GPU“二號玩家”AMD身上,而AMD也早早將目標(biāo)瞄向英偉達(dá)的AI王座。AMD究竟有幾分勝算?想窺得這個問題的答案,讓我們將目光移向它的發(fā)布會上一探究竟。
當(dāng)?shù)貢r間12月6日消息,AMD在美國圣何塞舉辦的“Advancing AI”活動中宣布,將推出全新的AI芯片系列Instinct MI300,包括MI300A和MI300X等型號,以及相應(yīng)的軟件和服務(wù)。MI300A已經(jīng)開始量產(chǎn),而MI300X則已經(jīng)開始發(fā)貨。英偉達(dá)在AI這一新興市場的主導(dǎo)地位或?qū)⑹艿絿?yán)重挑戰(zhàn)!
MI 300X芯片是適用于各種各樣生成式AI應(yīng)用場景的芯片;MI 300A則更適用于用在HPC 應(yīng)用和數(shù)據(jù)中心上。
在硬件參數(shù)配置上,兩顆芯片有共性也有差異。
MI300A 與 MI300X 采用相同的基本設(shè)計和方法,兩顆芯片都采用采用了一種名為“3.5D封裝“的技術(shù)來生產(chǎn),并且也都是基于 AMD第四代的Infinity架構(gòu)打造。
在內(nèi)存方面,兩顆芯片都采用了現(xiàn)下大熱的HBM 3設(shè)計,但是MI 300A用的是 128GB的 HBM 3設(shè)計,MI 300X 用的是內(nèi)存更大的 192GB HBM 3設(shè)計;
在計算單元方面,MI 300X 搭載了304個CDNA 3 計算單元,每個計算單元中還有34個計算單位。而MI 300A的計算單元更少,只有228個。
在發(fā)布會上,AMD幾乎全程硬剛英偉達(dá),MI300x 全程“拉踩”H100。
據(jù)AMD稱,在最常見的大型語言模型內(nèi)核的性能方面,MI300X比H100略快。
但是,盡管AMD表示,該芯片為大型語言模型提供了相同的訓(xùn)練性能,但與競爭對手相比,其改進(jìn)的內(nèi)存能力將節(jié)省大量成本。
““這是世界上性能最高的生成式人工智能加速器,”AMD首席執(zhí)行官蘇姿豐在演講中談到MI300X時說。
Instinct MI300X 基于 CDNA 3 架構(gòu),這是 AMD 的第三代 GPU 架構(gòu),專為數(shù)據(jù)中心的 AI 和 HPC 工作負(fù)載而構(gòu)建。
但是,盡管AMD在MI300A的HPC和AI融合中更加重視工作負(fù)載,但該公司認(rèn)為MI300X在大型語言模型(如Meta的開源Llama 2系列)上訓(xùn)練和運行推理方面將具有更大的吸引力。
它配備了 192GB 的 HBM3 高帶寬內(nèi)存,是 2022 年英偉達(dá) H100 SXM GPU 的 80GB HBM3 容量的 2.4 倍。它也高于英偉達(dá)最近宣布的H200的141GB HBM3e容量,后者將于明年第二季度上市。雖然 MI300X 參數(shù)上不如英偉達(dá)最新產(chǎn)品 H200,但由于 H200 的出貨時間比較晚,因此 MI300X 仍被認(rèn)為是對當(dāng)前算力市場的有力補充。
MI300X 的內(nèi)存帶寬為 5.3 TB/s,比 H100 的 3.3 TB/s 容量高出 60%,也比 H100 的 4.8 TB/s 容量高。
但是,雖然 H100 的 SXM 外形尺寸需要 700 瓦的功率,但 MI300X 的要求略高,功率范圍為 750 瓦。
在HPC性能方面,AMD表示,MI300X可以通過雙精度浮點數(shù)學(xué)(也稱為FP64)實現(xiàn)高達(dá)163.4 teraflops的矩陣運算。對于 FP64 矢量運算,芯片可以達(dá)到 81.7 teraflops。這些數(shù)字比 英偉達(dá) 的 H100 增加了 2.4。
對于單精度浮點數(shù)學(xué)(也稱為 FP32),MI300X 的矩陣和矢量運算都可以達(dá)到 163.4 teraflops。據(jù)AMD稱,該芯片的矢量性能是H100所能達(dá)到的2.4倍。它補充說,H100 無法進(jìn)行 FP32 張量運算,因此矩陣運算沒有可比性。
至于關(guān)鍵的人工智能性能指標(biāo),AMD表示,MI300X比H100快30%,用于TensorFloat-32或TF32(653.7 teraflops)、半精度浮點或FP16(1307.4 teraflops)、大腦浮點或BFLOAT16(1307.4 teraflops)、8位浮點或FP8(2614.9 teraflops)和8位整數(shù)或INT8(2614.9 teraflops)。
據(jù)AMD稱,在最常見的大型語言模型內(nèi)核的性能方面,MI300X比H100略快。
對于 Meta 的 700 億參數(shù) Llama 2 模型的內(nèi)核,MI300x 的中型內(nèi)核快 20%,大內(nèi)核快 10%。對于 Flash Attention 2,MI300X 在中型內(nèi)核上快 10%,在大內(nèi)核上快 20%。
““這意味著內(nèi)核級別的性能實際上直接轉(zhuǎn)化為更快的結(jié)果,”蘇姿豐說。
AMD 沒有透露新品的定價,但 CEO 蘇姿豐聲稱比市場上的其它產(chǎn)品有更高的性價比,目前已向眾多 OEM 合作伙伴發(fā)貨。
微軟首席技術(shù)官 Kevin Scott 作為發(fā)布會的演講嘉賓宣布,MI300X 已經(jīng)部署到 Azure 當(dāng)中,Azure ND MI300X 虛擬機(jī)現(xiàn)已推出預(yù)覽版。 Meta 還宣布將在其數(shù)據(jù)中心部署 MI300 處理器。另外,惠普、戴爾、聯(lián)想等數(shù)家數(shù)據(jù)中心基礎(chǔ)設(shè)施提供商,也宣布將計劃在其產(chǎn)品集成MI300。
此前,AMD 預(yù)計 AI 芯片將在新財季帶來 4 億美元增收,收入在明年將超過 20 億美元。作為對比,英偉達(dá)的數(shù)據(jù)中心硬件在最新財季的收入為 145 億美元,高于去年同期的 38 億美元。
在發(fā)布會上,AMD董事長蘇姿豐表示,預(yù)計到2027年,用于數(shù)據(jù)中心的人工智能芯片的整體市場規(guī)模將達(dá)到4000億美元,年復(fù)合增長率將達(dá)到 70%。
在AI這一新興領(lǐng)域中,英偉達(dá)已占得先機(jī)。而AMD不甘示弱,手握著其“終極武器”,勢必要在算力芯片領(lǐng)域掀起一場“腥風(fēng)血雨”,究竟能否打敗英偉達(dá),登上AI“王座”?讓我們拭目以待。
- END -
請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達(dá)AI統(tǒng)治的開始
- 2 北電數(shù)智主辦酒仙橋論壇,探索AI產(chǎn)業(yè)發(fā)展新路徑
- 3 “AI寒武紀(jì)”爆發(fā)至今,五類新物種登上歷史舞臺
- 4 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 5 國產(chǎn)智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計算迎來商業(yè)化突破,但落地仍需時間
- 7 東陽光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開成長空間
- 8 地平線自動駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營收大增主靠小件,虧損繼續(xù)又逢關(guān)稅,能否乘機(jī)器人東風(fēng)翻身?