6月15日消息,AMD,英偉達(dá)的頭號競爭對手,終于發(fā)布了令人期待已久的AI芯片。2014年,蘇姿豐成為AMD CEO時,這家芯片企業(yè)正面臨生存危機(jī),裁員約1/4,股價徘徊在2美元。但在她的領(lǐng)導(dǎo)下,AMD實(shí)現(xiàn)了漂亮的轉(zhuǎn)身,9年來股價飆升近30倍,對英偉達(dá)和英特爾兩家頂級芯片巨頭形成了制衡。HBM 密度是英偉達(dá) H100 的 2.4 倍,帶寬是英偉達(dá) H100 的 1.6 倍。
隨著生成式AI技術(shù)的快速發(fā)展,英偉達(dá)GPU成為各家大廠的爭相搶購對象,AMD也成為了關(guān)注的焦點(diǎn)。AMD宣布了下一代AI芯片MI300X加速器的發(fā)布,這是一款純GPU版本,采用AMD CDNA 3技術(shù),使用多達(dá)192 GB的HBM3高帶寬內(nèi)存來加速大型語言模型和生成式AI計算。主要客戶將于第三季度開始試用MI300X,第四季度開始全面生產(chǎn)。
蘇姿豐表示,人工智能是AMD“最大、最具戰(zhàn)略意義的長期增長機(jī)會”?,F(xiàn)場,AMD還宣布與明星AI獨(dú)角獸企業(yè)Hugging Face達(dá)成了一項(xiàng)新的合作伙伴關(guān)系,為AMD的CPU、GPU和其他AI硬件優(yōu)化他們的模型。
除了AI芯片外,AMD還推出了專為云計算和超大規(guī)模用戶設(shè)計的全新EPYC服務(wù)器處理器,代號為Bergamo,每個插槽最多包含128個內(nèi)核,并針對各種容器化工作負(fù)載進(jìn)行了優(yōu)化。亞馬遜旗下云計算部門AWS、甲骨文云、Meta、微軟Azure的高管均來到現(xiàn)場,分享了在其數(shù)據(jù)中心使用AMD芯片及軟件的感受。
MI300X加速器是AMD Instinct MI300系列的新成員,專為大型語言模型和其他先進(jìn)AI模型而設(shè)計。它由12個5nm chiplets封裝而成,共有1530億顆晶體管。這款A(yù)I芯片舍棄了APU的24個Zen內(nèi)核和I/O芯片,采用更多的CDNA 3 GPU和更大的192GB HBM3,提供5.2 TB/s的內(nèi)存帶寬和896GB/s的無限帶寬。MI300X的HBM密度是英偉達(dá)H100的2.4倍,帶寬是其1.6倍,這意味著AMD可以運(yùn)行比英偉達(dá)芯片更大的模型。
AMD演示了在單個MI300X GPU上運(yùn)行擁有400億個參數(shù)的Falcon-40B大型語言模型,讓它寫了一首關(guān)于舊金山的詩。蘇姿豐表示:“模型尺寸變得越來越大,你需要多個GPU來運(yùn)行最新的大型語言模型。”但隨著AMD芯片上內(nèi)存的增加,開發(fā)者將不再需要那么多GPU。
另一款MI300A被蘇姿豐稱作“面向AI和高性能計算的全球首款A(yù)PU加速器”,將多個CPU、GPU和高帶寬內(nèi)存封在一起,在13個chiplets上擁有1460億顆晶體管。MI300A采用5nm和6nm制程、CDNA 3 GPU架構(gòu),搭配24個Zen 4核心、128GB HBM3,相比MI250提供了8倍以上的性能和5倍以上的效率。AMD還公布了一種AMD Infinity架構(gòu)。該架構(gòu)將8個MI300X加速器連接在一個考慮了AI推理和訓(xùn)練的標(biāo)準(zhǔn)系統(tǒng)中,提供共1.5TB HBM3內(nèi)存。
這些新產(chǎn)品的發(fā)布表明了AMD在AI領(lǐng)域的強(qiáng)勁競爭力,將對英偉達(dá)構(gòu)成重大挑戰(zhàn)。?