數字化 | 大語言模型不能做什麼?
▋數字化
人工智慧不太可能另起爐灶將人類智能遠遠甩在身後,像AlphaFold這樣的知識生產應用也表明,人工智慧的未來發展趨勢將是深度的人機合作。
原文:大語言模型不能做什麼
作者 | 上海社會科學院哲學研究所助理研究員 阮 凱
圖片 |網絡
以大語言模型為代表的大模型技術正在引領新的人工智慧熱潮,人文社會科學領域也對大模型多有關注,相關討論多集中於它的社會影響、倫理風險和治理策略。但在技術治理之外,如果我們以大語言模型為切入口,系統地總結大模型能做什麼、不能做什麼,哪些事情是人能做得好而大模型做不好的,這將有助於我們更好地發揮其優勢、認清其局限,避免對它的過度神化。
不能創造語言
大語言模型代表了人類在人機互動事業上的巨大進步,其成功也是人類智能的成功,表明了自然語言是人機互動的核心語言媒介,不是人說機器的語言,而是機器在說人的語言;不是人在模仿機器的思想表達,而是機器在模仿人類的思想表達。因此大模型至多是會使用語言,而遠談不上能創造語言、發明語言。恩格斯認為人類從勞動中創造了語言,他寫道:「語言是從勞動中並和勞動一起產生出來的,這個解釋是唯一正確的……動物,甚至高度發達的動物,彼此要傳遞的信息很少,不用分音節的語言就可以互通信息。」動物之間只需要傳遞危險到來、食物在哪等簡單信息,但勞動讓人類的語言得以產生,社會勞動和社會分工愈複雜,語言也就愈複雜。著名語言哲學家維根斯坦和恩格斯的觀點不謀而合,他做了這樣一個比喻:「我們的語言可以被看作一座老城,錯綜的小巷和廣場,新舊房舍,以及在不同時期增建改建過的房舍。」語言之所以像老城一樣,是因為老城是不斷修建、錯綜複雜的,而語言也同樣隨著勞動和實踐的深入而不斷地生成、變化與發展。
而大語言模型的基礎仍然是深度學習技術,即利用大量的文本數據來訓練模型,只不過模型的參數規模更為龐大,但與產生語言的勞動、實踐根本不沾邊,比如,用英語語料訓練的模型也自然只會說英語。反觀人類,不同國家、不同民族的人往往說著不同的語言,即使同一個國家也有不同的方言,比如漢語方言就通常分為十大方言,這些多樣的語言生長在人們的生產勞動和生活實踐土壤之上。如果大語言模型不能像人一樣創造語言,那麼我們就清楚了大語言模型的第一個局限性,更沒有必要對大語言模型頂禮膜拜。
不能深度理解人類
大語言模型的優秀對話表現,緣於AI訓練師對模型的不斷訓練,以及設計了強化學習的獎勵機制。大語言模型在人機互動上的優秀表現,讓一部分用戶誤以為人工智慧一下子具有了像人一樣的心智,人機之間達成了充分的理解,似乎通用人工智慧近在咫尺。但從語言哲學的視角看,理解有多個層面和程度,能夠給出恰當回應只是理解的一個部分,這並不意味著它能完全理解人類,因為深度理解一句話,需要對說話者的語境有全面理解。如同維根斯坦所認為的,「環境給予這事情以重要性」,字面信息往往是浮出水面的冰山一角,而環境信息往往是水面以下的冰山,包括大到時代風貌、社會結構、生活形式,小到說話者的習慣態度、立場觀點、情感情緒等豐富內容。熟人之間的深入理解,往往是因為對話雙方熟知彼此的環境信息,一句話、一個單詞甚至一個動作就能傳遞豐富的信息。
人類通過日積月累的具身體驗、生存感受、經驗觀察、交往實踐、總結概括等活動,才能準確把握對話的環境信息。而當人們與大語言模型對話時,就與熟人之間的對話理解有所不同,我們只管提出問題,而會極度省略環境信息,即使偶然附上環境信息,對這些信息的提供也不會完全窮盡和準確。大語言模型在應對人類問題時選擇的策略是「既然你不說,我也不問」,也不會去搜集提問者的環境信息,而是專注像單字接龍般更好地回應提問者的問題。大語言模型雖然常常能回答人類提出的問題,但這種回答也只意味著對人類的淺層理解,而深層理解不僅需要語言上的恰當回應,也需要生活實踐上的理解。從語言哲學角度看,語言理解問題要結合生活形式、人類生存問題加以考慮,只有關注生活形式和生活世界,在生活實踐上達成理解才是深層的理解。比如我們看到天災人禍,會有切身感受,這是一種悲喜與共的深層理解,羅素所言的「對人類苦難不可遏制的同情」也是超越淺層理解的深層理解。所以說,大語言模型目前只是人類生存實踐的旁觀者和應答者,缺乏共情能力,還達不到像人類理解那樣的深刻性與豐富性,而深層理解更彰顯人類智能的特殊性。
不能全面嵌入社會
人工智慧的發展史,也是對什麼是智能的理解史。一方面,隨著人工智慧的發展,被奉為圭臬的圖靈測試已難以全面評估人工智慧的智能水平了。即使有些機器通過圖靈測試,它可能仍與人類智能相差很遠。另一方面,包括「智能」在內的任何概念都與人類的話語實踐緊密地結合在一起,智能概念的內涵不是固定的,而是隨著人類對智能的認識而不斷地被深入理解,在此過程中人們逐漸意識到,人類智能的提升離不開人類社會的進步。
馬克思認為,人腦、勞動和語言三者互相促進,而社會為人類的大腦、勞動和語言的發展提供了「強有力的推動力」和「更加確定的方向」。從馬克思哲學的視角看,社會無疑是人類智能的基石,聰慧的個體如果脫離社會,其智力發展也會停滯不前,殘缺的個體如果嵌入社會,其智力也會得到儘可能充分的發展,「狼孩」、海倫·凱勒等案例無不說明這一點。著名社會學家哈里·柯林斯更是指出,當前的人工智慧發展離完全嵌入人類社會還很遠。他提出兩大金律:其一,沒有計算機能夠流利地使用自然語言,通過嚴格的圖靈測試並擁有完全的類人智能,除非它完全嵌入正常的人類社會;其二,基於當前技術的漸進式進步,無法讓計算機完全嵌入人類社會。從柯林斯的觀點看,大語言模型的技術特點仍然是深度學習的漸進式進步而已,它還不能完全社會化,因此無論它們變得多麼好,以ChatGPT為代表的大語言模型仍然不能像人一樣在社會中進行交往與實踐,不能以人類體悟語境的方式來體悟語境,因此,談論ChatGPT擁有媲美人類的智能,完全理解人類的語言,還為時尚早。
我們需要以客觀中道和實事求是的態度看待大語言模型,大語言模型不能創造語言、不能深度理解人類、不能全面嵌入社會這三個層面揭示的是一個共同的問題,即人類和大模型的智能—語言機制有著根本的不同。今天我們思考大語言模型不能做什麼,其價值是:第一,有助於提防新一代人工智慧的泡沫化發展,明確大語言模型的界限。例如,由於盲目樂觀,由歐盟牽頭並耗費10年和近47億人民幣的「人類腦計劃」如今仍然沒能取得預期成果,飽受社會各界批評。如果不去思考大語言模型的界限,一股腦地發展大語言模型,也可能會陷入與「人類腦計劃」相似的困境。第二,有助於全面思考人工智慧未來的發展方向。既然現有的深度學習技術無法讓人工智慧全面社會化,那麼這會引導科學家去探索,未來什麼樣的技術方案能讓人工智慧進一步社會化呢?第三,有助於凸顯人機合作的重要價值。大語言模型等新興AIGC技術體現了未來人工智慧的發展方向將是更緊密的人機合作,人類智能中仍有很多精妙的地方值得機器學習,人工智慧不太可能另起爐灶將人類智能遠遠甩在身後,像AlphaFold這樣的知識生產應用也表明,人工智慧的未來發展趨勢將是深度的人機合作。
(本文系上海市社科規劃青年課題「經典倫理學與認知科學哲學視域下的機器倫理研究」階段性成果)
文章為社會科學報「思想工坊」融媒體原創出品,原載於社會科學報第1867期第6版,未經允許禁止轉載,文中內容僅代表作者觀點,不代表本報立場。
本期責編:宋獻琪
拓展閱讀
人才強國 | 人工智慧時代職業技能疊代向何處去
數字化 | 大語言模型需要克服諸多關鍵問題