科學認知才能理性應對大模型挑戰 | 社會科學報

2023-08-11     社會科學報

原標題:科學認知才能理性應對大模型挑戰 | 社會科學報

科學認知才能理性應對大模型挑戰 | 社會科學報

數字化

在資本框架下,不是讓「自然力」而是讓勞動者個人及其出賣的「智力」服從於AI機器所代表的「社會智力」,而這只是因為這種「社會智力」被非勞動者個人所壟斷和支配,由此,人類內部的個人與個人之間的矛盾將不斷加劇,其不斷累積和最終爆發,的確有可能毀滅社會進而人類物種本身——這才是大模型尤其AGI的「失控點」或「危險點」所在,而對AI的非科學認知,如對超級機器人的科學幻想等,則會誤導這方面的認知。

原文 :《科學認知才能理性應對大模型挑戰》

作者 |中國社會科學院大學文學研究院研究員 劉方喜

圖片 |網絡

ChatGPT把人工智慧(Artificial Intelligence,簡稱AI)發展史帶入了「大模型」時代,也使全球大眾真切感受到「AI時代」的來臨。現在國內外相關研發,都被稱作「類ChatGPT」研究,可見其「範式」轉型意義。但是,大模型之大能力、大影響同時也意味著大風險,馬斯克等簽名的暫停大模型研究的公開信、辛頓退出谷歌、奧特曼接受美國國會質詢等極具爆炸性的新聞,把這種大風險帶入了全球大眾關注視野。理性的應對需要科學的認知,而有關AI大模型的認知狀況總體上不容樂觀。

AI能力的強大性與可控性大致成反比

大模型研發界提出的內部應對風險的「對齊」概念具有方法論意義,而筆者從奧特曼接受美國國會質詢新聞獲得的大致印象是「雞同鴨講」,即人類內部的價值觀非常「不對齊」,這與大模型跟人類價值觀的不對齊,至少應該受到同等關注;而這首先需要跟AI一線研發者「對齊」,儘管同時也要對他們的價值觀進行反思。筆者參加了中國人工智慧學會主辦的「2023全球人工智慧技術大會」之分論壇「第六屆全球視野下的人工智慧倫理論壇」的活動,論壇對大模型的風險做了多方面探討;同時,「風險」「安全」「倫理」「治理」等字眼也出現在此次大會其他分論壇議題中,可見研發界對大模型風險的廣泛關注。2023北京智源大會同期舉行,深度學習三巨頭中的辛頓、立昆和OpenAI聯合創始人奧特曼發表演講,進一步闡發了對大模型的各自研判。立昆一如既往地對大模型的能力不買帳,認為要實現AGI(Artificial General Intelligence),需另尋他途。奧特曼的研判其實與立昆非常接近,也不認為現在他們發布的ChatGPT是AGI或超級AI。辛頓的研判略有不同,大致認為現有大模型加以改進可以實現AGI。

筆者注意到:對大模型能力強弱的判斷,其實決定著一個人對大模型風險大小的判斷。這方面的代表是立昆,大致認為現有大模型的能力沒那麼強大,不可能失控,未來研發出的與人甚至動物大腦接近的「世界模型」,才可能出現失控風險。奧特曼的研判與立昆大致接近,認為他們現在發布的GPT4通過「對齊」等技術手段可在內部控制相關風險,還不需要政府等外部力量過度監管,但未來的超級AI需要監管。辛頓則認為現在的大模型已具超強能力,已有失控風險,未來發展將進一步加劇這種風險。Google DeepMind,OpenAI等最近聯合發布的題為《應對極端風險的模型評估》(Model Evaluation for Extreme Risks)文章指出:「為了負責任地推動人工智慧前沿研究的進一步發展,我們必須儘早識別人工智慧系統中的新能力和新風險」;「一個經驗法則:如果一個人工智慧系統具有足以造成極端傷害的能力特徵,假設它被濫用或無法對齊,那麼人工智慧社區應將其視為『高度危險』」——AI的「能力」越強大,技術濫用的危害性越大,「無法對齊」或對齊失敗的可能性越大,或者兩者兼而有之,AI能力的強大性與可控性大致成反比例關係。

筆者認為,還可以把有關大模型的「能力」的討論進一步細化,大致可以梳理出與AI的「可控性」成反比例關係的三種相互聯繫的因素。一是,AI能力的「強大性」與可控性成反比例關係,辛頓大致就是因大模型能力的強大而產生擔憂的。二是,AI能力的「通用性」、應用場景的開放性與可控性成反比例關係,通用性越強、應用場景越開放,失控的可能性越大。大模型獲得能力「通用性」的關鍵首先就在「自然語言」,而第一代AI符號主義路徑因使用的是「人工語言」而缺乏通用性;獲得能力通用性的另一個要素是「多模態」。而AI能力通用性增強,也是風險增加的因素之一。三是,無監督的自主性、能力提升的自動性以及不可解釋性等,也與AI的可控性成反比例關係。因此,對未來AGI的實現路徑儘管有不同的研判,但是,AI的能力、通用性、自主性和自動性越強,其失控的風險越大,已是基本共識。以此來看,立昆的比喻「未來造出汽車(AGI),再考慮安全帶(應對風險的策略)問題」,未免過於樂觀;而奧特曼在北京智源大會上所引用的《老子》的「千里之行,始於足下」,當是更合理的姿態。

「熟能生巧」未得到足夠重視

當然,對現有大模型運作機理、未來AGI實現路徑的科學認知,又是探討AI風險及其應對之策的基礎。陳小平教授認為:現在的大模型是一種不同於「概括性模型」的「實例性模型」、不同於「原理模擬」的「功能模擬」。而筆者則表述為:是對人的動態的智能活動的模擬。人使用一定智能工具(人腦、語言等符號)把一定的信息加工成信息產品,在此動態過程中,人的智慧能力得以生成和提高。而現在大模型的運作機理實際上是:使用一定智能工具(神經網絡、自然語言等符號)把一定的信息(大數據)加工成信息產品(生成文本、圖像、視頻等)。人的智慧能力並非從人腦(先天條件)直接生成的,而是通過實際地使用語言等符號、接受大量信息(數據)並將其加工為信息產品的不斷的「學習」或「預訓練」(後天的經驗實踐等)來生成和提高的,這個動態過程可以用「熟能生巧」加以描述——足夠大的數據量、足夠多的「學習」「預訓練」等,這正表明現有大模型能力的獲得和提高也是個「熟能生巧」的過程——只關注計算機神經網絡對人乃至動物大腦神經元系統模擬的立昆等,顯然不夠重視這一點。

被忽視的人類內部的衝突

人類對AI的期待或倫理治理目標,大致可以將此描述為:增進人類福祉、維持人類物種與社會文明的存續發展。科學的態度是不能停留於泛泛而談,而應具體討論,比如可以把AI對人的影響分成近期、中期、遠期三種。未來的AGI或者超級AI可能獲得「自我意識」「自由意志」等,進而威脅人類物種的存續,這種可能性即使會出現,也只是個遠期問題——奧特曼、辛頓,尤其是立昆等對此持開放而審慎的態度,但是大眾傳媒和大眾文化產品在過度渲染這種似是而非的可能性,產生的負面後果是:更應關注的欺詐、侵犯隱私等近期風險、造成大量失業等中期風險的更加急迫的問題,反而得不到足夠關注和嚴肅對待。只關注未來超級AI威脅、代替乃至毀滅人類物種,恰恰忽視了:人類內部的衝突——AI的不斷升級會不斷加劇這種衝突——也可能毀滅人類社會文明。ChatGPT之父奧特曼已經注意到這一點,他推動的Worldcoin所要採取的全民基本收入方案和實驗等,就是為了應對AI將造成大量人口失去工作和收入等中期問題的,但是,相對於大眾傳媒有關ChatGPT的熱鬧炒作,他這方面的努力並未引起足夠關注。

馬克思指出:「發展為自動化過程的勞動資料的生產力要以自然力服從於『社會智力』為前提」,隨著自動化的發展,人類社會生活將受到「一般智力」的控制並按照這種智力得到改造——現在的大模型尤其有望實現的AGI,就代表「社會智力」「一般智力」或「通用智能」,DeepMind的AI技術也正在推動自然科學研究的發展,將有助於人類更全面認識和掌握自然規律,解決今天依然有待人類征服的「自然力」問題,比如嚴峻的氣候、生態等問題,進而緩解人與自然的外部衝突——沒有任何理由阻礙大模型進一步廣泛運用和向AGI邁進。

但是在資本框架下,不是讓「自然力」而是讓勞動者個人及其出賣的「智力」服從於AI機器所代表「社會智力」,而這只是因為「社會智力」被非勞動者個人所壟斷和支配,由此,人類內部的個人與個人之間的矛盾將不斷加劇,其不斷累積和最終爆發,的確有可能毀滅社會進而人類物種本身,這才是大模型尤其是AGI的「失控點」或「危險點」所在,而對AI的非科學認知,如對超級機器人的科學幻想等,則會誤導這方面的認知。用馬克思的話來說,現在的實際情況是:作為人的「觀念」和「制度」的「上層建築」跟作為「基礎」的AI大模型及其發展大勢,嚴重不對齊。應該追問的是:如何讓AI大模型適應人的積極的觀念、價值觀、制度,並改變人的落後的觀念、價值觀、制度等而使之與AI大模型及其發展大勢對齊?

文章為社會科學報「思想工坊」融媒體原創出品,原載於社會科學報第1864期第6版,未經允許禁止轉載,文中內容僅代表作者觀點,不代表本報立場。

本期責編:王立堯

拓展閱讀

數字化 | 大語言模型需要克服諸多關鍵問題

科技治理 | 用大模型技術點燃AIGC產業「核爆點」

文章來源: https://twgreatdaily.com/zh-tw/ca4539df1a309a7bef3a7a9bd7261d47.html