2024一開年,中美AI行業發生了兩件大事,進一步把1993年啟動的第三次人工智慧浪潮推向高潮:OpenAI上線了GPT商店,AI的商業化進程更進一步;1月16日,中國智譜AI推出了比肩GPT-4的GLM-4大模型,為中國在全球AI領域的競爭增加了一份籌碼。
人工智慧風雲70餘載,幾起幾落,沉沉浮浮,拼人才、拼算力、拼資金、拼算法,哪些故事需要銘記,哪些教訓又值得審視?
跨越七十年的華麗篇章
只為把「智能」裝進機器
阿蘭·圖靈是一位傳奇人物,他不僅僅是每一位當代程式設計師的「祖師爺」,圖靈還是一位世界級長跑運動員,馬拉松成績2小時46分03秒,只比1948年奧運會金牌成績慢11分鐘。二戰期間,他領導「Hut 8」小組破譯德軍密碼,成為盟軍在大西洋戰役中擊敗軸心國海軍的關鍵因素。
圖靈也是個馬拉松運動員|midjourney
當然,我們今天要說的還是「人工智慧」。
圖靈被譽為計算機科學與人工智慧之父,1950年,圖靈第一次提出「機器智能(Machine Intelligence)」的概念,「人類利用可用信息和推理來解決問題並做出決策,那麼為什麼機器不能做同樣的事情呢?」
自那時開始,無數科學家、科技企業為之奮鬥——賦予機器以「智能」的革命悄然拉開了序幕。70多年過去,「三次浪潮,兩次低谷」, 人工智慧終究是衝破層層阻隔,進入了大眾的日常生活。
縱觀三次人工智慧浪潮,我們會發現一個有意思的現象:理論總是比現實更超前。不是科學家設計不出更好的人工智慧,而是囿於當時的計算機技術,無法做到。
人工智慧發展大事年表|哈佛大學官網
圖靈在1950年的論文《計算機器與智能》中已經提出了機器思維的概念和著名的圖靈測試,是什麼阻止了圖靈開始工作?有兩個原因。首先,在那個年代,計算機缺乏智能的一個關鍵先決條件:它們無法存儲命令,只能執行命令。這意味著,計算機只能被告知要做什麼,但是不記得自己做了什麼。第二,計算成本在上世紀50年代太昂貴了,租賃一台電腦每個月需要20萬美元,筆者根據通貨膨脹率做了換算,這相當於現在每月租金254萬美元,名副其實的「有錢人的遊戲」。
名副其實的「有錢人的遊戲」|midjourney
科學家之所以稱之為科學家,是因為他們的研究總是著眼於未來,即使當下缺乏變成現實的條件。
圖靈發表那篇著名的論文後僅兩年,計算機科學家阿瑟·薩繆爾(Arthur Lee Samuel)開發出一款跳棋程序,並提出了「機器學習」這個概念。1956年的達特茅斯會議上,約翰·麥卡錫(John McCarthy)正式提出了「人工智慧」這個詞語,1956年,也就成為了實際意義上的人工智慧元年。
至此,「人工智慧」跨越了混沌初開的早期階段,進入了一個高速發展時期。多年後,當大眾回看那個時代,稱之為人工智慧的「第一次浪潮」。
計算機科學與人工智慧之父——阿蘭·圖靈
我們先來看看「第一次浪潮」給我們今天的生活留下了哪些遺產吧。說出來可能有些驚訝,我們今天使用的大多數軟體追根溯源都是「第一次浪潮」的產物,或者說,基於一種叫「手動編碼知識(Handcrafted Knowledge)」的人工智慧。比如我們的Windows系統,智慧型手機應用程式,人行道上按下按鈕等待紅燈變綠的交通燈。這些都是人工智慧(此處採用第一次浪潮中對人工智慧的定義)。
這真算「人工智慧」?
算。
人們對人工智慧的理解一直在變化。30年前,如果你問路人,谷歌地圖算不算人工智慧,得到的答案是肯定的。這個軟體能幫你規劃最佳路線,還能用清晰的語言告訴你如何行駛,為什麼不算?(谷歌地圖應用確實是第一波人工智慧的典型案例)
第一次人工智慧浪潮主要基於清晰且邏輯的規則。系統會檢查需要解決的每種情況下最重要的參數,並就每種情況下採取的最適當的行動得出結論。每種情況的參數均由人類專家提前確定。因此,這種系統很難應對新的情況。他們也很難進行抽象——從某些情況中獲取知識和見解,並將其應用於新問題。
總而言之,第一波人工智慧系統能夠為明確定義的問題實現簡單的邏輯規則,但無法學習,並且很難處理不確定性。
1957年,羅森布拉特發明感知機,這是機器學習人工神經網絡理論中神經元的最早模型,這一模型也使得人工神經網絡理論得到了巨大的突破。樂觀的情緒在科學界蔓延,第一次人工智慧浪潮逐漸被推向了高潮——挫敗要來了。
感知器原理圖|加利福尼亞州立大學
1966年,人們發現好像人工智慧的路走歪了。邏輯證明器、感知器、強化學習等等只能做很簡單、非常專門且很窄的任務,稍微超出範圍就無法應對。為了更好的理解,我們建議讀者腦補使用Windows系統的體驗:一切功能都是提前設計好的,你無法教會這個系統做什麼事,它也無法自己學習額外的知識。
另一方面,當時的計算機面臨內存有限和處理速度不足的挑戰,解決實際的人工智慧問題變得十分困難。研究者們迅速認識到,要求程序具備兒童般的世界認知水平是一個過高的期望。在那個時候,沒有人能夠構建出滿足人工智慧需求的龐大資料庫,也沒有人知道如何讓程序獲取如此豐富的信息。與此同時,許多計算任務的複雜度呈指數級增加,使得完成這些任務變得幾乎不可能。
科學家進入了死胡同,人工智慧發展也進入了「蟄伏期」。
這一等,就是十多年。
當時間來到了20世紀80年代,兩個關鍵突破重新點燃了「第二次人工智慧浪潮」:深度學習和專家系統。
約翰·霍普菲爾德 (John Hopfield) 和大衛·魯梅爾哈特 (David Rumelhart) 推廣了「深度學習」技術,使計算機能夠利用經驗進行學習。這意味著人工智慧可以處理那些「沒有提前設定」的問題,它具備了學習能力。另一方面,愛德華·費根鮑姆(Edward Feigenbaum)引入了專家系統,它模仿了人類專家的決策過程。
總的來說,第二次人工智慧浪潮改變了人工智慧的發展方向。科學家放棄了符號學派思路,改用統計學的思路來研究人工智慧。深度學習和專家系統的引入讓機器能夠根據領域內的專業知識,推理出專業問題的答案。
因此,第二次人工智慧浪潮也叫「統計學習(Statistical Learning)」時代。
關於這一次浪潮,筆者想要強調兩點,第一,為何它如此重要?第二,它無法克服的弊端是什麼?
第二次浪潮時間很短,但通過引入「統計學習系統」,工程師和程式設計師不會費心去教授系統要遵循的精確規則(第一次浪潮的理念)。相反,他們為某些類型的問題開發統計模型,然後在許多不同的樣本上「訓練」這些模型,使它們更加精確和高效。
此外,第二波系統還引入了人工神經網絡的概念。在人工神經網絡中,數據經過計算層,每個計算層以不同的方式處理數據並將其傳輸到下一個級別。通過訓練每一層以及整個網絡,它們可以產生最準確的結果。
神經網絡示意圖|Pixabay
這些都為第三次人工智慧浪潮奠定了基礎,而且留下了龐大的遺產,我們今天依然在使用。比如人臉識別、語音轉錄、圖片識別,以及自主汽車和無人機的部分功能,都來自於這次浪潮的成果。
但是,這套系統有一個巨大的弊端。根據美國國防高級研究計劃局(DARPA)指出,我們尚不清楚人工神經網絡背後的實際運行規則,也就是說,這套系統運行良好,但是我們不知道為什麼運行的這麼好。這就好比人可以把球拋到空中,並且能大概判斷球會落在哪裡,如果你問他,你是如何做出判斷的,是根據牛頓力學定律計算的嗎?他無法回答,但他就是知道。
這暴露了一種因果關係挑戰,因為「看不到因果」。第二套系統依賴數據輸入,數據輸出做決策,缺乏因果會導致嚴重後果:這個系統容易學壞。
微軟曾經設計了一個機器人叫「Tai」,他可以順暢的和人聊天,但如果有越來越多的人告訴他「希特勒是個好人」,它就會逐漸接受這個結論。
這些難題,留給了第三次人工智慧浪潮來解決。
這次浪潮也是目前我們所正在經歷的,也稱之為「情景適應(Contextual Adaptation)」。如果非要確定一個時間節點,應該是1993年之後。摩爾定律讓計算機算力急速提升,大數據的發展讓海量數據存儲和分析成為可能。
來源:開源圖庫Pixabay
為了更好的說明和上一次人工智慧浪潮的區別,我們可以用一張圖片舉例。如果用第二次的系統來回答「圖片里的動物是什麼?」你會得到「圖片里是一頭牛的可能性為87%」。如果同樣的問題給到第三次系統,它不僅告訴你這是一頭牛,還會給出符合邏輯的理由,比如四隻腳、有蹄子,身上有斑點等等。
換句話說,第三次的系統更講邏輯。
筆者認為,第三次人工智慧浪潮有3個重要節點(通常認為是前兩個)。2006年,傑弗里·辛頓(Geoffrey Hinton)發表了《一種深度置信網絡的快速學習算法》,在基層理論上取得若干重大突破。2016年,谷歌DeepMind研發的AlphaGo在圍棋人機大戰中擊敗韓國職業九段棋手李世乭,這標誌著「人工智慧」從科研領域開始邁向公眾領域,從學術主導走向商業主導。
此後便是2022年11月30日,OpenAI發布ChatGPT,讓AI成為了一款消費級產品。「生成式AI」和「大語言模型」一時成為大眾熱議的焦點。
生成式AI的競賽,
我們要拼的是什麼?
「生成式AI」是人工智慧的一個分支,通過利用大型語言模型、神經網絡和機器學習的強大功能,能夠模仿人類創造力生成新穎的文字、圖片和音、視頻等內容。
大眾看到的OpenAI有多輝煌,那成立之初就有多落寞。那時候的OpenAI面臨兩個困境:一是缺乏資金,二是其技術路線不被主流所認可。
根據機構測算,直到2019年OpenAI共接受的捐助總額僅為1.3億美元,也就10億人民幣,馬斯克個人捐助最多。當然,這點錢和國內創業公司動輒上百億的融資比不值一提。由於缺乏資金,OpenAI不得不依靠捐贈,2016年,英偉達贈送給OpenAI一台DGX-1超級計算機,幫助其縮短了訓練更複雜模型的時間(從6天到2小時)。
2018年,就連之前的最大捐贈來源馬斯克也離開了OpenAI。他曾經提議接管OpenAI,但遭到董事會拒絕,於是離開,並且此後沒有再進行捐贈。
另外一方面,OpenAI選擇了一條不好走的路——先研發預訓練模型。2018年,OpenAI推出了具有1.17億個參數的GPT-1(Generative Pre-training Transformers, 生成式預訓練變換器)模型,這一年也叫預訓練模型元年。
為何這個於預訓練模型的發布如此重要?這標誌著AI進化路線的轉變,在此之前,的神經網絡模型是有監督學習的模型,存在兩個缺點:
首先,需要大量的標註數據,高質量的標註數據往往很難獲得,因為在很多任務中,圖像的標籤並不是唯一的或者實例標籤並不存在明確的邊界;第二,根據一個任務訓練的模型很難泛化到其它任務中,這個模型只能叫做「領域專家」而不是真正的理解了NLP(自然語言處理)。
預訓練模型則很好的解決了上述問題。
2020年,OpenAI發布了第三代生成式預訓練 Transformer,即GPT-3。這一事件同樣成為了大洋彼岸另一家中國AI初創企業的轉折點——智譜AI。
GPT-3 的發布給了大家非常明確的信號,即大型模型真正具備了實際可用性。在反覆糾結和討論後,智譜 AI 終於決定全面投身大模型,成為了國內較早介入大模型研發的企業之一。
同樣,智譜AI投入了大量的研發資源在預訓練模型上。2022年,GLM-130B發布,史丹福大學大模型中心對全球30個主流大模型進行了全方位的評測,GLM-130B 是亞洲唯一入選的大模型。評測報告顯示GLM-130B在準確性和公平性指標上與GPT-3 175B (davinci) 接近或持平,魯棒性、校準誤差和無偏性優於GPT-3 175B。
實際上,GLM-130B是中國科技公司智譜AI發布的一個「預訓練模型」。「預訓練模型」是訓練「大預言模型」的模型。它的位置比大眾接觸到的「生成式AI」更加前置,是埋藏在海平面之下的基礎設施。現在市面上可供使用的預訓練模型不多,比較主流的是來自OpenAI的GPT,以及來自谷歌的Bert。GLM-130B正是結合了以上兩個框架優點的國產自主研發預訓練模型。
智譜AI則是奮起直追,對標OpenAI,成為了阿國內唯一一個對標OpenAI全模型產品線的公司。
2020年,OpenAI推出GPT-3
2021年,OpenAI推出DALL-E
2022年12月,OpenAI推出了轟動一時的ChatGPT
2023年3月,OpenAI推出GPT-4
對比智譜AI和OpenAI的產品線,我們可以看到:
GPT vs GLM
- ChatGPT vs. ChatGLM(對話)
- DALL.E vs. CogView(文生圖)
- Codex vs. CodeGeeX (代碼)
- WebGPT vs. WebGLM (搜索增強)
- GPT-4V vs. GLM4 (CogVLM, AgentTuning) (圖文理解)
為何搶占生成式AI的高地如此關鍵?
2023年的一句論斷可以回答這個問題,「所有產品都值得用AI重做一遍」。AI對各個行業的的效率提升是革命性的,這種提升發生在服務業、新藥研發、網絡安全、製造業升級各個方面。
根據中國信通院的數據,2023年中國的人工智慧專利申請量和論文發表量都位居世界第一,中國的人工智慧市場規模也在不斷擴大,預計到2023年將達到5132億美元,占全球的近四分之一。
「工欲善其事必先利其器」。在「利器」GLM-130B訓練下,智譜在2023年10月推出了自研第三代對話大模型 ChatGLM3,此時距離發布上一代產品ChatGLM2僅過去4個月。
2024年1月16日,距離ChatGLM3發布不到3個月,公司又推出了GLM-4,GLM-4 相比 GLM-3 性能全面提升 60%。其各項參數已經達到了比肩GPT-4的程度。在基礎能力指標MMLU 81.5、GSM8K 87.6、MATH 47.9和BBH 82.25等項目上,GLM-4已經達到GPT-4 90% 以上水平。HumanEval 72 達到 GPT-4 100%水平。
對齊能力上,基於AlignBench數據集,GLM-4超過了GPT-4在6月13日發布的版本,逼近GPT-4最新效果,在專業能力、中文理解、角色扮演方面超過GPT-4精度。
GLM-4 還帶來了 128K 上的長文本能力,單次提示詞可處理文本達到 300 頁。在 needle test 大海撈針測試中,128K 文本長度內 GLM-4 模型均可做到幾乎百分之百精度召回。
同時,GLM-4大大增強了多模態能力以及Agent能力,GLM-4 可以實現自主根據用戶意圖,自動理解、規劃複雜指令,自由調用WebGLM搜索增強、Code Interpreter代碼解釋器和多模態生成能力以完成複雜任務。GLMs個性化智能體定製能力也同步上線。不需要代碼基礎,用戶用簡單的提示詞指令就能創建屬於自己的GLM智能體。
其實智譜AI的發展路徑也符合AI行業的內在規律。「人工智慧不是一個簡單的從1到100進步的過程,它往往趨向於兩個極端:要麼90分以上,其它的都是10分以下。」換言之,要麼「快速突破」,要麼「原地打轉」,不奮力前進就只能滑入另一個極端。
回到歷史時間線里,我們目前正處在第三次人工智慧浪潮當中,既然有浪潮,就有高潮與低谷。第三次浪潮會結束,什麼才是推動它的關鍵?
有一種觀點認為「深度學習算法」帶來的技術紅利,將會支撐我們前進5-10年,隨後瓶頸就會到來。在瓶頸到來之前,我們急切需要一個「技術奇點」拿過接力棒,把這次浪潮推到更高的高度。
「技術奇點」在哪裡尚不可知。但有一點可以確定,它的出現有賴於企業的長期投資、深度研發和對科技的信念。
點擊閱讀原文,查看報名詳情