作者丨邱曉芬
編輯丨蘇建勛
2023年以來,AI芯片是AMD虎視眈眈的領(lǐng)域。在今年年初CES上發(fā)布過 MI300系列之后,美國(guó)時(shí)間12月6日,AMD在其舉辦的Advancing AI 活動(dòng)上,又發(fā)布了這一系列兩款新芯片——MI 300X和MI 300A。
MI 300X芯片是適用于各種各樣生成式AI應(yīng)用場(chǎng)景的芯片;MI 300A則更適用于用在HPC 應(yīng)用和數(shù)據(jù)中心上。
在硬件參數(shù)配置上,兩顆芯片有共性也有差異。
兩顆芯片都采用采用了一種名為“3.5D封裝“的技術(shù)來生產(chǎn),并且也都是基于 AMD第四代的Infinity架構(gòu)打造。
在內(nèi)存方面,兩顆芯片都采用了現(xiàn)下大熱的HBM 3設(shè)計(jì),但是MI 300A用的是 128GB的 HBM 3設(shè)計(jì),MI 300X 用的是內(nèi)存更大的 192GB HBM 3設(shè)計(jì);
在計(jì)算單元方面,MI 300X 搭載了304個(gè)CDNA 3 計(jì)算單元,每個(gè)計(jì)算單元中還有34個(gè)計(jì)算單位。而MI 300A的計(jì)算單元更少,只有228個(gè)。
在發(fā)布會(huì)上,AMD幾乎全程對(duì)標(biāo)英偉達(dá)H100 芯片。從官方披露的數(shù)據(jù)來看,MI 300X的內(nèi)存配置是英偉達(dá)H100的2.4 倍,峰值存儲(chǔ)帶寬也是英偉達(dá)的2.4 倍,另外, FP8、FP16、TF32算力是英偉達(dá)H00的 1.3 倍。
軟件是 AI芯片生態(tài)中不可獲缺的一環(huán),在此前的發(fā)布會(huì)上,AMD曾經(jīng)介紹過他們的AI軟件套件ROCm——和英偉達(dá)專有的CUDA不同,這是一個(gè)開放開源的平臺(tái)。
不過短短幾個(gè)月時(shí)間,AMD就推出了最新版本的ROCm 6,主要是大模型做了深度優(yōu)化。
比如,當(dāng)企業(yè)使用MI300X平臺(tái)、搭配ROCm 6,相比于上一代的配置(MI250芯片+ROCm 5),跑70億參數(shù)量的 Llama 2的延遲時(shí)間少了8倍。若跑130億參數(shù)量的 Llama 2,綜合表現(xiàn)甚至還是英偉達(dá)H100的1.2 倍。
產(chǎn)品有了, AMD此次也公布了商業(yè)化的進(jìn)展。
AMD方面宣布,OpenAl也宣布增加了AMD Instinct系列 AI加速器的使用。微軟、Meta、Oracle三家大廠,對(duì)于MI 300X芯片也興趣濃厚。
其中,微軟提到講采用這可芯片來為Azure ND MI 300X v5 VM賦能;Meta則計(jì)劃在其數(shù)據(jù)中心部署MI 300X和ROCm 6;Oracle則將提供基于MI 300X加速器的裸金屬計(jì)算方案,并基于此生成式AI服務(wù)。
另外,惠普、戴爾、聯(lián)想等數(shù)家數(shù)據(jù)中心基礎(chǔ)設(shè)施提供商,也宣布將計(jì)劃在其產(chǎn)品集成MI300。
在發(fā)布會(huì)上,AMD董事長(zhǎng)蘇姿豐表示,預(yù)計(jì)到2027年,用于數(shù)據(jù)中心的人工智能芯片的整體市場(chǎng)規(guī)模將達(dá)到4000億美元,年復(fù)合增長(zhǎng)率將達(dá)到 70%。
此前,在 AMD的財(cái)報(bào)會(huì)議上,蘇姿豐對(duì)于這一系列寄予厚望,她曾表示, 隨著數(shù)據(jù)中心 GPU的增長(zhǎng), MI300系列可能會(huì)成為 “AMD 歷史上銷售額突破 10 億美元最快的產(chǎn)品。