AI算力市場的二號玩家、芯片廠商AMD推出全新人工智能GPU MI300系列芯片,與英偉達(dá)在人工智能算力市場展開競爭。
北京時間6月14日凌晨,AMD如期舉辦了“AMD數(shù)據(jù)中心與人工智能技術(shù)首映會”,并在會上推出的AI處理器MI300系列。其中,特別為大語言模型優(yōu)化的MI300X將于今年晚些時候開始向部分客戶發(fā)貨。
AMD CEO蘇姿豐先介紹MI300A,這是全球首款針對AI和高性能計算(HPC)的加速處理器(APU)加速器。在13個小芯片中遍布1460億個晶體管。相比前代MI250,MI300的性能提高八倍,效率提高五倍。
隨后,蘇姿豐公布了本場發(fā)布會最受關(guān)注的產(chǎn)品——MI300X,這是一款為大語言模型進(jìn)行了優(yōu)化的版本。
“我喜歡這個芯片,”蘇姿豐說,MI300X芯片及其CDNA架構(gòu)是為大型語言模型和其他尖端人工智能模型設(shè)計的。
生成式人工智能應(yīng)用程序的大型語言模型使用大量內(nèi)存,因為它們運行越來越多的計算。AMD演示了MI300X運行400億參數(shù)的Falcon模型。OpenAI的GPT-3模型有1750億個參數(shù)。
她還用Hugging Face基于MI300X的大模型寫了一首關(guān)于活動舉辦地舊金山的一首詩。
蘇姿豐表示,MI300X提供的HBM(高帶寬內(nèi)存)密度是英偉達(dá)H100的2.4倍,HBM帶寬是競品的1.6倍。這意味著AMD可以運行比英偉達(dá)H100更大的模型。
“模型尺寸越來越大,你實際上需要多個GPU來運行最新的大型語言模型,”蘇姿豐指出,隨著AMD芯片上內(nèi)存的增加,開發(fā)人員將不需要那么多GPU,可為用戶節(jié)省成本。
AMD還表示,將推出一款I(lǐng)nfinity Architecture,在一個系統(tǒng)中集成8個M1300X加速器。英偉達(dá)和谷歌也開發(fā)了類似的系統(tǒng),將8個或更多GPU集成在一個盒子里,用于人工智能應(yīng)用。
好的芯片不僅是產(chǎn)品本身,還需要有一個好的生態(tài)。人工智能開發(fā)人員歷來偏愛英偉達(dá)芯片的一個原因是,它有一個開發(fā)完善的軟件包,稱為CUDA,使他們能夠訪問芯片的核心硬件功能。
為了對標(biāo)英偉達(dá)的CUDA,AMD推出了自己的芯片軟件“ROCm”,打造自己的軟件生態(tài)。
蘇姿豐也對投資者和分析師表示,人工智能是該公司“最大、最具戰(zhàn)略意義的長期增長機(jī)會”,“我們認(rèn)為,數(shù)據(jù)中心人工智能加速器(市場)將以超過50%的復(fù)合年增長率,從今年的300億美元左右增長到2027年的1500億美元以上?!?/p>
以ChatGPT等為首的大語言模型需要最頂尖性能的GPU來進(jìn)行運算,如今這一市場英偉達(dá)處于絕對優(yōu)勢,擁有80%的市場,而AMD則被視為一個有力的挑戰(zhàn)者。
雖然AMD未披露價格,但此舉可能會給英偉達(dá)GPU帶來價格壓力,如后者的H100,其價格能夠達(dá)到3萬美元以上。較低的GPU價格可能有助于降低服務(wù)生成人工智能應(yīng)用程序的高成本。
不過,AMD這場發(fā)布會眾多產(chǎn)品從性能上都處于“領(lǐng)導(dǎo)”地位,但資本市場并未拉抬AMD的股價,反而收跌3.61%,而同行英偉達(dá)則收漲3.90%,市值首次收于1萬億美元關(guān)口上方。