從遊戲到AI,英偉達今天成了ChatGPT的動力之源

2023-03-17     極客電影

原標題:從遊戲到AI,英偉達今天成了ChatGPT的動力之源

英偉達再次站到了時代浪潮之上:

被ChatGPT選中的英偉達成功擺脫「礦圈」影響,並且極有可能在未來成為AI領域的核「芯"

過去三十年間,英偉達製造的晶片幾乎主導了整個遊戲和計算機圖像產業,而人工智慧業務的增長為它帶來了新的盈利方向。

英偉達創始人黃仁勛在十年前的深謀遠慮,讓公司得以乘著時代風口「起飛」。

大約在十年前我們就發現,AI這種製作方式可以改變一切。

我們調整了公司方方面面的發展規劃,我們生產的每一個晶片都具備人工智慧技術。

大約在十年前我們就發現,AI這種製作方式可以改變一切。

我們調整了公司方方面面的發展規劃,我們生產的每一個晶片都具備人工智慧技術。

縱觀英偉達的崛起,靠的絕不是運氣。

圖形處理「霸主」成長史

英偉達的英文名稱 NVIDIA 前兩個字母 NV=Next Version(下一個版本);

NVIDIA是拉丁語「嫉妒」的意思,他們希望自己產品的計算速度可以快到讓所有人都嫉妒,所以選擇了代表羨慕嫉妒恨的綠眼睛作為公司標誌。

英偉達的LOGO——綠眼睛

英偉達創始人黃仁勛,1963年出生,9歲時移民美國,後進入在俄勒岡州立大學學習電氣工程,並在史丹福獲得碩士學位。

上世紀八九十年代,畢業後的黃仁勛曾在AMD和LSI Logic工作。在LSI Logic設計部門工作了兩年之後,黃仁勛轉崗到了銷售部門——這是他自認為「人生最佳」的職業轉型,銷售經驗讓他學會了「產品和市場結合才是成功關鍵」。

之後,黃仁勛結識了Chris Malachowsky和Curtis Priem兩位曾經在SUN工作過的技術人員,三個工程師常聚在聖何塞Berryessa立交橋旁的小破店Denny's里喝咖啡,討論如何加快電子遊戲中3D圖像的渲染速度。

1993年,三人共同在加州一個小公寓里創立了英偉達公司。

英偉達的三個創始人

黃仁勛(右)

1999 年,幾經市場失敗瀕臨破產邊緣的英偉達,在裁掉大部分員工後,推出了號稱是世界上第一款官方GPU——GeForce 256。

這是第一款允許自定義陰影和照明效果的可編程顯卡。到 2000 年,英偉達已成為微軟第一款Xbox的獨家圖形引擎供應商。

「微軟推出XBOX的時機,恰好是我們投入研究可編程著色器(Programmable shader)的時候,它定義了計算機圖形學的底層邏輯。」創始人黃仁勛說。

天時地利人和,英偉達的GPU順勢成為最主流的圖形處理晶片。

30年前,矽谷研發圖形處理晶片的公司群雄逐鹿,如今幾乎只剩英偉達和AMD還活著,執行長仍是創始人的公司更是少見。

這就必須提到黃仁勛在2006 年下的大賭注——他們發布了一個名為CUDA(Compute Unified Device Architecture)的軟體工具包。

當年CUDA剛問世的時候,華爾街對其市值估值為0美元。「直到2016年,即CUDA問世 10 年後,人們才突然意識到,這是一種截然不同的電腦程式編寫方式,」英偉達深度學習研究副總裁Bryan Catanzaro說。

正是他們搭建的CUDA開發者平台以其易用性和通用性,讓GPU可以用於通用超級計算,最終推動英偉達迅速擴張為圖形處理領域的霸主。

從遊戲到「挖礦」,再到ChatGPT

英偉達的GPU一度成為了加密貨幣領域中的硬通貨,遊戲顯卡價格被炒高,英偉達的股票也曾一度高達319美元。

儘管英偉達為「挖礦」專門設計了一款GPU(NVIDIA CMP hx series),但仍然擋不住「淘金者們」購買遊戲顯卡。

顯卡短缺大概到2022年初結束,同年英偉達發布的40系列GPU (GeForce RTX 4080),定價$1199,遠遠高於30系列$699的價格,這讓遊戲玩家大為震撼。

顯卡供需恢復正常以後,英偉達在遊戲行業的營收下降了46%,股價隨之大跌,晶片巨頭急需業務調整。

「突然一個聽起來不可能的軟體發現了你」——OpenAI購買了10000個GPU用於AI計算,此後,英偉達開始正式成為人工智慧背後的中堅力量。

2016年,黃仁勛向OpenA的創始人之一馬斯克交付全球首款用於人工智慧加速分析的超級計算機DGX-1

被 AI 選中的英偉達

01│AI為什麼選擇GPU?

英偉達在1996年發布GeForce256時,就率先提出GPU(圖形處理器)概念,從此英偉達顯卡晶片就等同了GPU。

GPU包含成百上千的核心,每個核心處理一個像素點,這樣就可以在同一時間內完成對圖片中所有像素點的處理。

GPU這種基於大量計算核心的結構,讓它特別擅長做那些計算密集且可以大量並行執行的運算,深度學習和AI應用就符合這個特點,而且AI應用里最常見的卷積運算本質是加減乘除這類簡單運算。

這也是GPU與中央處理器CPU最大的區別:

CPU適用於需要按時序進行的複雜運算,就像一個淵博的數學教授,什麼問題都會,但是雇他的成本很高;

而GPU就像一千個小學生,可同時進行大量簡單運算,又便宜又快。

02│GPU 如何推動AI人工智慧的發展?

GPU算力提升是AI得以實現的基礎,而AI領域的算法進步也讓GPU算力提升成為可能。

2009年,史丹福人工智慧研究員推出了ImageNet,這是一個標記圖像的集合,用於訓練計算機視覺算法;

2012年,被稱作「神經網絡之父」和「深度學習鼻祖」的多倫多大學教授傑弗里辛頓和他的博士生Alex發表了AlexNet,把在GPU上訓練的卷積神經網絡與ImageNet數據結合,創造出世界上最好的視覺分類器,一舉獲得ImageNet LSVRC-2010競賽的冠軍,錯誤率只有15.3%, 遠超第二名的26.2%。

AlexNet原理

同年,英偉達發布了名叫開普勒(Kepler)的GPU架構,從2012年的「開普勒」晶片到2020年的安培(Ampere)架構,GPU的晶片性能在8年里提升了317倍。

英偉達能取得這樣成就,主要有兩個方面的原因:

首先是半導體製造工藝的進步,這部分功勞當歸功於台積電和三星這樣的晶片製造商。在晶片架構不變的情況下,單靠工藝的升級,性能也會有好幾倍的提升。

另外一個非常重要的原因,就是在英偉達自己在晶片架構上的優化

首先是張量核心(Tensor Cores)的引入。

Tensor Cores是一種專為深度學習而設計的計算核心,它執行的是一種特別的矩陣式數學運算方式,非常適用於深度學習訓練

2017年12月英偉達發布了首次採用具有Tensor Cores的GPU,專門用於AI領域、特別是計算機深度學習。這就是為什麼幾乎所有深度學習超級計算機都選擇了英偉達的GPU。

英偉達Tensor Cores GPU

其次是,支持更低精度的數據運算

這是因為研究AI算法的人發現,精度下降造成的準確度下降可忽略不計,因此選擇更低的精度能大幅提升算力。

同時,Tensor Cores使人工智慧程式設計師能夠使用混合精度來實現更高的吞吐量而不犧牲精度,即針對不同的任務執行不同的精度需求,節約了大量算力。

同樣能帶來算力提升的,是結構化剪枝(壓縮)技術

剪枝技術是本科畢業於清華大學,現任麻省理工副教授的韓松提出的一種AI模型的壓縮技術。他發現在AI模型中,神經元之間的聯繫有著不同的緊密程度,剪掉一些不那麼重要的連接,基本不會影響模型的精度。

剪枝壓縮技術

而近年來神經網絡模型里新秀Transformer模型,給算法技術層面帶來了大幅進步。

Transformer模型

在NLP領域取得的研究進展都和Transformer息息相關, OpenAI採用的GPT-3模型,就是受到了Transformer模型的啟發,參數的數量達到了1750億個。

然而Transformer模型需要更大的運算量,也就意味著硬體水平得配套。於是英偉達開發了專用於Transformer模型的計算引擎,以適應AI的算力需求。

由此可見,AI算法領域的科研成果和GPU的性能是彼此促進、互相提攜的。

巨頭入場,圖形晶片越來越卷

計算能力就是AI時代的貨幣。

計算能力就是AI時代的貨幣。

雲計算和網際網路大廠紛紛下場做自己的晶片,就是提供更強大的算力,降本增效,來滿足不同應用場景的需求。

比如蘋果的M1晶片,就是為了讓它的產品在視頻剪輯等細分場景的應用上有更強表現,而捨棄了通用性。

而英偉達、英特爾設計的晶片更具通用性——晶片設計廠商在通用性和專用性上的取捨,其實體現了他們在商業價值上的自我預期。

2013年,谷歌開始研發用於AI場景的TPU晶片,目的是為了解決公司內部日益龐大運算需求與成本問題。這些晶片幾乎只能用於解決矩陣運算,也算是捨棄通用性,追逐專用性的極端了。

甚至連亞馬遜都在2013年推出了Nitro1晶片,同樣是服務其自身電商業務。

國內網際網路大廠也不甘示弱:

位元組的晶片團隊劃出了伺服器晶片AI晶片視頻雲晶片三大類;

快手發布了視頻雲服務品牌StreamLake,推出雲端智能視頻處理SoC晶片SL200,據說這款晶片擁有「世界上最快的」視頻壓縮效率;

2017年,百度和老牌半導體公司賽靈思合作了一款XPU晶片,並在此基礎上自研了雲端全功能AI晶片「崑崙」......

曾經英偉達的客戶,正在變成它的對手。面對晶片行業越來越卷,黃仁勛則很平常心,他認為有競爭是好事。

文章來源: https://twgreatdaily.com/c5088b8e114cd356ede019e485222b71.html