集微網(wǎng)報道 北京時間6月12日凌晨,AMD在美國圣何塞舉辦的“AI Advancing 2025”大會上,重磅發(fā)布Instinct MI350系列GPU新品,憑借強大的AI訓(xùn)練和推理能力,成為面向AI和高性能計算領(lǐng)域,業(yè)界最高性能的GPU產(chǎn)品。
與此同時,AMD還劇透了一系列即將于明年發(fā)布的產(chǎn)品,其中包括計算性能提升10倍,被行業(yè)視為“Game Changer”的MI400系列GPU,以及為AI而優(yōu)化,并集成新一代的Instinct GPU MI400系列、第六代EPYC CPU以及新一代的Pensando Vulcano網(wǎng)卡的“Helios”機柜解決方案。
得益于核心業(yè)務(wù)的強勁表現(xiàn)以及數(shù)據(jù)中心和人工智能領(lǐng)域的擴(kuò)張。5月,AMD剛剛發(fā)布了強勁的季報,營收74億美元,同比增長36%,營收連續(xù)四個季度同比增長。其中受到EPYC CPU和Instinct GPU銷售增長推動,一季度AMD數(shù)據(jù)中心業(yè)務(wù)收入37億美元,同比大漲57%,數(shù)據(jù)中心AI收入同比增長兩位數(shù)。
憑借強大的創(chuàng)新能力以及堅定的路線圖執(zhí)行力,AMD正努力把握AI時代的機遇,加速前行。
“人工智能的未來不會由任何一家公司創(chuàng)造,也不會存在封閉的生態(tài)中,它將由開放合作塑造?!盇MD董事會主席兼首席執(zhí)行官蘇姿豐(Lisa Su)博士強調(diào)。
三方面戰(zhàn)略聚焦AI 推理市場復(fù)合增速超80%
近年來,AI的快速發(fā)展遠(yuǎn)超所有人的預(yù)期。蘇姿豐博士坦言她的職業(yè)生涯中,還沒有哪一項技術(shù)能夠像AI一樣具有如此快速的創(chuàng)新步伐。
蘇姿豐博士表示,當(dāng)前隨著大模型在各個領(lǐng)域加速部署,AI已經(jīng)進(jìn)入下一階段。訓(xùn)練是模型開發(fā)的基礎(chǔ),而真正帶來改變的是對推理需求的顯著增加。展望未來幾年,數(shù)十萬甚至數(shù)百萬的模型將會出現(xiàn),而針對特定任務(wù)以及行業(yè)的模型將加速部署。
蘇姿豐博士指出,在AI加速的背景下,AMD預(yù)計從2023年到2028年,數(shù)據(jù)中心市場規(guī)模將達(dá)到5000億美元,年復(fù)合增速超過60%,其中推理將成為最大的驅(qū)動力量,年復(fù)合增速超過80%。
另一個趨勢是,AI正在超越數(shù)據(jù)中心范疇,從邊緣向更廣泛的終端延伸,因此沒有一種架構(gòu)能夠通吃所有的負(fù)載類型,而是要針對場景和負(fù)載選擇合適的計算架構(gòu)。
蘇姿豐博士介紹,AMD的AI戰(zhàn)略聚焦在三方面。一是打造領(lǐng)先的計算引擎,將正確的模型、場景和計算引擎相匹配。
二是大力投入AI,在過去的一年,AMD圍繞AI進(jìn)行了超過25筆投資。三是提供全棧的AI解決方案。
自2023年推出MI300系列以來,Instinct GPU系列保持每年已更新的節(jié)奏持續(xù)快速迭代,通過持續(xù)的工藝、架構(gòu)等方面的創(chuàng)新,顯著提升產(chǎn)品的性能和能效,并持續(xù)拓展市場規(guī)模。
當(dāng)前,全球10家頂級AI公司中有7家在規(guī)模部署Instinct系列。而最新一期全球超級計算機Top500榜單中,排名前兩位的超級計算機,均采用AMD的Instinct GPU和EPYC CPU解決方案。
目前,已經(jīng)有超過35家廠商采用MI300系列平臺。這表明AMD在高性能計算領(lǐng)域的行業(yè)領(lǐng)導(dǎo)力正在顯著提升。
Instinct MI350系列:推理能力提升3倍 加冕AI新王
此次推出的MI350系列GPU包括MI350X GPU和MI355X GPU,采用CDNA4架構(gòu),3nm工藝制程,具有1850億晶體管,支持FP4和FP6的全新生成式AI數(shù)據(jù)類型,采用業(yè)界領(lǐng)先的HBM3E存儲方案。不同之處在于MI355X系統(tǒng)功率較高從而提供更高性能,主要針對液冷,MI350X提供風(fēng)冷及液冷兩種配置,從而支持廣泛的數(shù)據(jù)中心部署。
MI350系列產(chǎn)品具有更加快速的AI訓(xùn)練和推理能力,4位和6位浮點精度下能夠?qū)崿F(xiàn)20PFLOPS(每秒千萬億)的算力。
MI350采用288GB的HBM3E,能夠?qū)崿F(xiàn)一顆GPU支持最高5200億參數(shù)的AI大模型。
MI350系列采用符合行業(yè)標(biāo)準(zhǔn)的GPU計算節(jié)點UBB8的通用基板設(shè)計,便于在現(xiàn)有的數(shù)據(jù)中心進(jìn)行快速的AI基礎(chǔ)設(shè)施部署,提供風(fēng)冷和直接液冷兩個版本,適用于不同散熱需求的數(shù)據(jù)中心或AI計算集群部署。
在同NVIDIA包括GB200以及B200在內(nèi)的頂級GPU的對比中,MI355X成為面向AI和高性能計算領(lǐng)域的業(yè)界最高性能的GPU產(chǎn)品。
在如AI智能體,內(nèi)容生成等推理應(yīng)用性能表現(xiàn)方面,MI355X相比上一代MI300X產(chǎn)品,推理能力平均提升3倍。
面向下一代推理需求,比如針對Deepseek R1、Llama 3.3 70B以及Llama 4 Maverick等當(dāng)下主流AI模型,MI355X相比于MI300X,推理能力提升3倍以上。
同英偉達(dá)的B200、GB200競品相比,MI355X對于主流大模型的推理能力也領(lǐng)先1倍以上。
同時,相比于B200,使用MI355X能夠帶來顯著的性能成本優(yōu)勢,相同成本下,能夠處理的Token數(shù)量提升40%。
面向預(yù)訓(xùn)練和微調(diào),MI355X對比MI300X能夠?qū)崿F(xiàn)模型訓(xùn)練的3倍加速。
相較于競品GB200和B200,MI355X在訓(xùn)練性能方面也有1倍以上的提升。
MI350系列的服務(wù)器機架解決方案在硬件和軟件層面均遵循開放標(biāo)準(zhǔn),包括第五代EPYC CPU以及AMD Pollara NIC?;陲L(fēng)冷的MI350機架解決方案,單機架可以支持最多64個GPU,從而支持更傳統(tǒng)的數(shù)據(jù)中心部署。
此前,AMD提出2020-2025年,將用于AI訓(xùn)練和高性能計算的AMD處理器和加速器的能效提高30倍,Instinct MI350將這一能效提升至35倍,超額完成任務(wù)。
此外,AMD還提出了新的五年目標(biāo),即到2030年,將機架規(guī)模能效提升20倍,意味著五年后,一個通常需要275個機架來訓(xùn)練的典型AI模型,可以在不到一個機架中完成訓(xùn)練,同時電耗降低95%。
據(jù)介紹,目前MI350系列解決方案正在向客戶出貨,預(yù)計第一波服務(wù)器合作伙伴相關(guān)產(chǎn)品以及CSP廠商的相關(guān)用例將于今年Q3推出。
強化軟件生態(tài):ROCm7正式發(fā)布 支持UALInk1.0
在保持硬件領(lǐng)先性能的基礎(chǔ)之上,近年來,AMD持續(xù)發(fā)力軟件生態(tài)建設(shè),軟件生態(tài)也被視為AMD在AI領(lǐng)域?qū)崿F(xiàn)真正破局的關(guān)鍵。
此次會上,AMD發(fā)布了最新的開發(fā)工具ROCm 7,旨在通過大幅提升性能、分布式推理、企業(yè)解決方案以及在Radeon和Windows上的更廣泛支持,與開源社區(qū)攜手共同驅(qū)動AI行業(yè)進(jìn)一步發(fā)展。
與ROCm 6相比,ROCm 7的推理能力提升超過3.5倍,訓(xùn)練能力提升3倍。
同時,AMD為開發(fā)者提供了開發(fā)者云服務(wù),它允許開發(fā)者即時、無硬件限制地訪問最新發(fā)布的Instinct MI350系列GPU,配備預(yù)配置環(huán)境和免費試用額度,幫助開發(fā)者們實現(xiàn)無縫AI開發(fā)和部署。
此外,今年4月,匯聚AMD、亞馬遜AWS、谷歌、英特爾、Meta、微軟等大量科技企業(yè)的UALink聯(lián)盟正式發(fā)布了1.0版本的UALink 200G加速器高速互聯(lián)規(guī)范,旨在挑戰(zhàn)英偉達(dá)NVLink技術(shù)在GPU加速器大規(guī)模并行互聯(lián)方面的領(lǐng)導(dǎo)地位。此次大會上,AMD宣布支持最新的UALInk1.0規(guī)范。
發(fā)布會上,蘇姿豐博士特別強調(diào),人工智能的未來不會由任何一家公司創(chuàng)造,也不會存在封閉的生態(tài)中,它將由開放合作塑造。
2026四大看點值得期待 MI400將迎史詩級飛躍
此次大會上,AMD還進(jìn)行了對于未來即將推出的一系列創(chuàng)新產(chǎn)品的預(yù)告。
一是將于2026年發(fā)布的AI基礎(chǔ)設(shè)施解決方案,集成了第六代 EPYC CPU VENICE,Instinct MI400系列GPU,以及Pensando VULCANO加速器。
二是20206年將會推出優(yōu)化的AI機架解決方案“Helios”,采用統(tǒng)一架構(gòu),專為前沿的模型訓(xùn)練設(shè)計,提供領(lǐng)先的計算密度,內(nèi)存,帶寬和可擴(kuò)展規(guī)模。相較于英偉達(dá)下一代集成AI GPU Vera和CPU Rubin的Oberon機架架構(gòu),Helios在擴(kuò)展帶寬、存儲帶寬等性能指標(biāo)方面實現(xiàn)1-1.5倍的提升。
三是宣布2026年推出AI計算性能大躍進(jìn)的Instinct MI400系列GPU,包括FP4/FP8精度下40PF/20PF的算力,432GB的HBM4,19.6TB/內(nèi)存帶寬,單GPU橫向拓展帶寬300GB/s。
四是宣布2027年采用新一代EPYC VERANO CPU、Instinct MI500系列GPU、PENSANDO VULCANO加速器的未來AI機柜。同樣保持一年一更新的節(jié)奏。
十大伙伴站臺奧特曼壓軸 AI行業(yè)影響力彰顯
此次發(fā)布會上,來自openAI、Meta、xAI、HUMAIN、微軟、紅帽等眾多重量級合作伙伴登臺分享了他們?nèi)绾问褂肁MD AI解決方案來訓(xùn)練當(dāng)前領(lǐng)先的AI模型,為大規(guī)模推理提供動力,并加速AI探索和開發(fā)。
據(jù)筆者觀察,這也是近年來“AI Advancing” 大會中客戶站臺數(shù)量最多的一次。反映出AMD的行業(yè)影響力和號召力的同時,也表明其領(lǐng)先的AI解決方案正在被行業(yè)廣泛認(rèn)可和接受。
Meta詳細(xì)介紹了Instinct MI300X在LLama 3和Llama 4推理中的廣泛應(yīng)用。介紹了MI350在計算能力、性能/TCO方面的表現(xiàn)。Meta表示,未來將繼續(xù)與AMD在AI路線圖上緊密合作,包括將在未來部署Instinct MI400。
甲骨文云基礎(chǔ)設(shè)施是首批采用搭載Instinct 355X GPU開放式機柜的廠商,宣布將采用最新AMD Instinct處理器加速的zettascale AI集群,該集群最多配置131072個MI355X GPU,幫助客戶大規(guī)模構(gòu)建、訓(xùn)練和推理AI。
日前,AMD與沙特人工智能公司Humain達(dá)成100億美元的重磅戰(zhàn)略合作。HUMAIN相關(guān)代表在此次會議上介紹了合作的相關(guān)內(nèi)容,包括利用AMD提供的全方位計算平臺,構(gòu)建開放、可擴(kuò)展、有彈性和成本效益的AI基礎(chǔ)設(shè)施等。
微軟宣布Instinct MI300X已在Azure上為專有和開源模型提供支持。
Cohere分享了其高性能、可擴(kuò)展的Command模型部署在Instinct MI300X上的實踐,以高吞吐量、效率和數(shù)據(jù)隱私為企業(yè)級LLM推理提供動力。
紅帽介紹了其與AMD擴(kuò)大合作如何實現(xiàn)AI環(huán)境,通過紅帽O(jiān)penShift AI上的Instinct GPU,在混合云環(huán)境中提供強大、高效的AI處理。
Astera Labs強調(diào)了開放的UALink生態(tài)系統(tǒng)如何加速創(chuàng)新,并為客戶提供更大的價值,同時分享了提供全面的UALink產(chǎn)品組合以支持下一代AI基礎(chǔ)設(shè)施的計劃。
Marvell分享了采用UALink規(guī)范的交換機產(chǎn)品的技術(shù)路線圖,作為UALink聯(lián)盟的成員,雙方將共同開發(fā)開放式互連規(guī)范,為AI 基礎(chǔ)設(shè)施帶來極致靈活性。
OpenAI的CEO山姆奧特曼同蘇姿豐博士討論了整體優(yōu)化的硬件、軟件和算法的重要性,以及 OpenAI與AMD在AI 基礎(chǔ)設(shè)施方面的密切合作,包括在MI300X 上生產(chǎn)的Azure上的研究和GPT模型,以及在 MI400 系列平臺上的深度合作。
“當(dāng)我第一次聽到芯片的一些規(guī)格時,我心想這不可能,聽起來太瘋狂了。這將是一件了不起的事情?!?奧特曼表示。