AMD正式發布AI晶片,英偉達該緊張起來了

2023-12-08     三易生活

原標題:AMD正式發布AI晶片,英偉達該緊張起來了

要說在這一輪AI熱潮中最受矚目的存在,無疑非OpenAI莫屬了,畢竟ChatGPT以及後續的GPT-4真正意義上讓大眾感受到了何為人工智慧。但在這一輪風口中真正悶聲發大財的莫過於英偉達,由於訓練AI大模型需要海量的算力,而目前算力的核心供應商就正是英偉達,因此掌握了AI大模型命脈的這一事實,也使得其股價自今年以來累計上漲了高達220%。

眼見英偉達的GPU,特別是Ampere A100、Hopper H100成為炙手可熱的香餑餑,不甘受制於英偉達的各路AI廠商也開始八仙過海各顯神通,其中自然少不了在GPU領域與英偉達打擂台的AMD。

日前在「Advancing AI」的活動上,AMD方面推出了用於大模型訓練和推理的MI300X GPU,和用於HPC(高性能計算)的MI300A APU。隨即微軟與Meta兩大巨頭也確認,他們將使用AMD最新的AI晶片Instinct MI300X。

微軟和Meta為AMD站台最主要的原因,莫過於Instinct MI300X本身的出色素質,AMD執行長蘇姿豐博士更是表示,Instinct MI300X「能與英偉達H100 HGX媲美」。據悉,其是由8個MI300X GPU組成,可提供高達1.5TB的HBM3內存容量,並內置了8個XCD(加速計算晶片)、共304個基於CNDA 3架構的計算單元以及4個IOD(接口晶片),而使用8個HBM3(三星高性能存儲晶片)堆棧,則為其帶來了高達192GB的內存以及5.3TB/s的最大帶寬。

AMD方面聲稱,與英偉達H100 HGX相比,Instinct MI300X加速器在運行大語言模型推理時的吞吐量和時延表現更好。而在實際測試中,由於Instinct MI300X更強大的存儲性能,在70億參數的Llama2和160億參數的Bloom推理能力方面,推理效率分別達到了H100的1.4倍和1.6倍。

如果單純從紙面數據上來說,英偉達在AI領域一家獨大的日子可能要一去不復返了,但顯然紙面數據並不能說明一切。

目前,軟體生態的壁壘就是AMD在算力晶片領域趕超英偉達時,所需要面對的一大挑戰。由於訓練和運行AI大模型不僅取決於GPU性能,工具鏈和資源庫同樣也必不可少,而AMD的ROCm軟體生態卻顯然還沒有英偉達的CUDA完善。

早在2006年英偉達就推出了CUDA開發平台,開發者可以藉助這一平台,使用C語言編寫GPU片上程序,來完成複雜的計算。這也讓GPU從此實際脫離了圖像處理的單一用途,成為了真正的GPGPU。

經過長達十餘年時間的積累,目前CUDA的庫、工具,以及資源生態系統,也使得開發者能夠輕鬆藉助GPU的並行計算能力,構建更強大和高效的AI模型,同時實現高性能、高通用性、高易用性,以及針對不同場景的深度優化。而反觀AMD的ROCm,起步則要晚得多,其2016年才問世,而且與Intel在CPU領域的競爭更是讓AMD在過去幾年基本是對ROCm的態度是「放養」。

所以儘管ROCm幾乎是全盤復刻了CUDA的技術棧,而且採取了開源策略,但其與CUDA最起碼也有十年左右的差距。以至於目前AMD在提供AI算力上採取的解決方案,是基於ROCm翻譯實現「CUDA兼容的AMD GPU」,即通過二進位翻譯/進程虛擬機技術去解析和轉換CUDA PTX通用指令到Radeon指令,這個方案雖然讓AMD的GPU得以切入AI算力領域,但代價卻是基於AMD GPU的開發工作,需要花費更多的時間、且在疊代和生態延展性上存在缺陷。

簡而言之,AMD GPU在AI跑分上儘管是單卡性能爆表,但組成集群應用在生產力環境下就暴露短板了。力不虛擲、功不唐捐,在CUDA加持下的英偉達GPU雖然未必是性能的最優解,可在當前的AI大模型訓練和推理上卻是效費比的最優解,而英偉達耕耘了十餘年的CUDA生態,更是已成為了事實上的工業標準。

「AMD YES,但我選英偉達」這句調侃,其實在消費級市場是毫無問題的,畢竟對於普通用戶而言,用得舒心才是最重要的,然而企業的考量則完全不同。「不把雞蛋放到同一個籃子裡」不僅僅是蘋果的指導思想,也幾乎適用於每一個科技巨頭。

如今AI算力已經是大模型得以運轉的燃料,為了保證「能源安全」,微軟、Meta等巨頭自然不願意只靠英偉達這一家供應商,而AMD的Instinct MI300X則給了他們一個新的選項。

雖然Instinct MI300X的實際表現大機率不會強於Hopper H100,但如果沒有前者,英偉達自然就會有恃無恐。現在的情況是除了OpenAI之外,其他廠商的大模型基本都是在賠本賺吆喝階段,這一年以來的投入也更像是在給英偉達打工。這一現實必然不會如微軟、Meta所願,其中前者投了上百億美元給OpenAI,後者則乾脆開源了自家的LLaMA 2大模型,這兩家搭台唱的這齣AI大模型戲終歸是為了自己賺錢,而不是讓英偉達白白撿便宜。

貌合神離就是當下一眾積極投身AI賽道的大廠,與英偉達之間關係的真實寫照,所以購買英偉達的GPU訓練自己的大模型雖然可以,但指望把後背交給英偉達顯然是不可能的。所以即便如今在AI算力領域,AMD暫時還不能對英偉達構成威脅,但這已經足以讓後者感到警惕,進而對微軟、Meta、亞馬遜等客戶採取更加懷柔的態度,而這顯然也正是這些巨頭想要的結果。

文章來源: https://twgreatdaily.com/zh/20593c389e7aad8bced9c545849907f8.html