甲小姐對話黃鐵軍:作為個體的永生沒有意義|甲子光年

2023-07-14     甲子光年

原標題:甲小姐對話黃鐵軍:作為個體的永生沒有意義|甲子光年

五個否定式判斷。

作者|甲小姐 劉楊楠

「我們處在一個不能確定的狀態,這樣的Near AGI(准強人工智慧)比我們強嗎?它超過我們的智能了嗎?還是它在什麼時候能超過我們呢?我不知道。我們處在一個完全無法把控的狀態里。如果我們能夠用做投資一樣的熱情去應對風險,至少有一定把握未來的可能,但是,你相信人類能做到嗎?我不知道。

2023年6月10日,在智源大會的「AI安全與對齊」論壇閉幕式上,黃鐵軍多次表達「我不知道」。說完最後一個「我不知道」,他接了句「謝謝」,成為這場AI盛會的結尾致辭。

黃鐵軍,北京智源人工智慧研究院院長、北京大學多媒體信息處理全國重點實驗室主任。他的研究方向為視覺信息處理和類腦智能,發明了脈衝連續攝影原理和超高速相機,獲國家技術發明獎二等獎(高效視覺特徵分析壓縮)、國家科技進步二等獎(視頻編碼國家標準)、中國標準創新貢獻獎突出貢獻獎和吳文俊人工智慧科學技術獎傑出貢獻獎。同時,他還是中國人工智慧學會、中國計算機學會、中國圖象圖形學學會和中國電子學會會士。

沒有什麼比一個意外強大又不確定的技術更讓人們魂牽夢縈、念念不忘。關於AI的發展路徑,目前全球大咖尚未形成共識,楊立昆(Yann LeCun)、斯圖爾特·羅素(Stuart Russell)、傑弗里·辛頓(Geoffrey Hinton)、山姆·奧爾特曼(Sam Altman)等AI領軍者都各執一詞。在未來真正發生之前,這註定是一場成敗難見分曉的爭辯。

本文,「甲子光年」對話黃鐵軍。我們試圖跳出產業框架,聊聊更本質也更尖銳的問題。黃鐵軍給出了五個否定式的判斷:

1.談不朽:「作為個體的永生是沒有意義的」

複製只是不朽的轉換點,復刻體自身要以新的形式發展下去。

甲小姐:你在智源大會的閉幕詞用了八個字作為標題——「難以預測,無法閉幕」,並反覆說了多次「我不知道」。你對AI的理解和上個月有不同嗎?

黃鐵軍:幾乎沒有不同。我說的若干個「我不知道」其實是經過思考的,不是一時的反應。

那天(註:智源大會當天)Hinton提到了Mortal Computation(非不朽計算),這個概念涉及「可朽」和「不朽」兩個話題。我在2015年就思考過相似的問題。我之前認為的「不朽」主要是將大腦結構用電子形式實現,人類就能跳出壽命限制。即使電子大腦的壽命受限於材料的生命周期,它也很容易複製新的本體繼續存在下去。現在我依然認為,純電子大腦一定會出現。但變化在於,我對永生、不朽這兩個詞有了新的理解。

甲小姐:如何理解永生、不朽?

黃鐵軍:中國自古有「三不朽」——立德、立功、立言。立德,即你的行為可以成為後世的一種典範,例如孔子、雷鋒;立功,即你的存在讓世界發生了不可逆的變化,例如歷代帝王;立言,即你寫的文章或提出的新理論成為人類文明共同的精神財富,例如李白、杜甫、愛因斯坦、牛頓。Hinton講的「永生」是最後一種,立言——你能夠以文字、代碼的方式永久流傳下去,他認為這就已經實現了不朽。

其實這種不朽早就實現了,只要世界沒有毀滅,人的思想可以通過數字、紙張、石頭等不易被物理摧毀的載體永遠流傳下去,但Hinton認為,現在的語言大模型已經把所有人類文明的成果凝練出來了。這和之前有本質區別——以前你寫一篇文章發明新的原理後需要圖書館等保存手段,但語言大模型是把東西重新做了一次凝練和整理,對原始數據做了巨大的壓縮,並且還產生了新組合的可能性。原來10PB的內容現在可能只有1PB,它的信息量不一定完全還原原始的10PB數據,但往往大於10PB的原始數據。因此Hinton講的永生或不朽,是指人工智慧大語言模型已經成為了人類文明新的載體。

假如我們把這樣的大模型,像科幻作品寫的一樣送到了宇宙其他星球,那個星球的智能體就可以通過跟大模型交流獲得關於我們社會的很多認識。原來你寫的文章只是固定的內容,而大模型已經是活的智能體了。關於地球文明的各種問題你都可以問大模型,它似乎是無窮無盡的,像人一樣,我們可以一直交流下去。從這個意義上說,即使地球消失了,但只要這樣的數字大腦存在下去,也能給你講述我們曾經存在的世界是什麼樣,甚至能產生我們沒有發現的新原理。有點像神靈一樣,假如某個外星文明比我們落後,在數字大腦降落到那裡後,那些人就可以天天到「廟」里求答案。

這個意義上,人類已經不是作為個體永生,而是我們所有的文明成果都凝練成一個活的模型,它不會消失,而且可以複製。

甲小姐:Hinton的思想讓你有了哪些反思?

黃鐵軍:我的反思是,我們到底要追求什麼樣的不朽?一種是長生不老;一種是以光、電等非碳基形式復刻大腦和行為方式,以另一種物理形式永生。第二種的極端形式是對人的複製達到幾乎完美的程度,它的想法和你完全一樣,現在沒人能做到這一點。複製大腦是有可能的,但你要把人的狀態,大腦中所有正在發射的神經脈衝都記錄下來複製在另一個載體上,讓它獨立於人體永生下去,這是很難的。

多數人都在追求這兩種永生,但我們需要反思一下,我們到底要不要追求這種意義上的不朽?每個人都覺得自己很重要,但從歷史發展的角度看,智能在不斷演化,你要想好,如果你真要進入一個全新的、智能水平更高的時代,其他「人」的智能都是你的10倍,就你是個傻子,你要不要去?去了之後,你到底是幸福還是痛苦?

甲小姐:要去,幸福沒有好奇重要。

黃鐵軍:在那個智能水平更高的時代,你只能看個新鮮,很多東西你是無法理解的,就像猩猩眼中的人類每天也在跑來跑去,但它不理解人類為什麼要畫畫、聽音樂,如果是這樣,你還要去那個時代嗎?

甲小姐:我現在也無法欣賞鋼筋混凝土和堵車,但依然希望活在現代化的世界。

黃鐵軍:但你能理解鋼筋混凝土和堵車,我們都是人,總的來說沒有猩猩、螞蟻和人之間這麼大的差別。但未來我們就是猩猩和螞蟻,作為一個落後物種,你要不要主動去先進物種的世界裡混日子?

甲小姐:人類如何對待不朽,這個問題很重要。可能今天AI定義者的一念之差,百年之後的文明軌跡就會大相逕庭。我認為恰恰是「不朽的可能」從本源上驅動了很多人對AI的熱情,這是人類動物性的本能——想要生存,想要繁衍,所以想造一個不朽的自己出來。

黃鐵軍:你說得對。但問題是不朽的是誰——你不朽,還是人類文明不朽,還是文明凝練成的模型不朽?

甲小姐:誠實地說,如果我的精神可以不朽,很好;如果我的肉身也能不朽,更好;如果我的肉身和精神一起不朽,最好。

黃鐵軍:我相信這是大多數人的選擇,但我們要反思一下這種選擇真正的意義有多大。你作為肉體或者復刻體的不朽存在下去,和你留下了隻言片語但是是獨有的,兩個相比哪個更有意義?

甲小姐:能靠隻言片語思想永存的人是極少數,牛頓和愛因斯坦做到了,但99%的人不太可能。

黃鐵軍:你連那個貢獻都沒做出來,又怎麼值得不朽下去?

甲小姐:為什麼不值得?如果我的後代對我很好奇,他們想了解自己的曾曾曾祖母,想跟我對話,這也是意義所在。

黃鐵軍:現在兩三代之後的孩子和長輩代溝已經很大了,你的知識體系對他來說已經落後了,是老古董。

甲小姐:我看了你過去的文章,你一直有復刻大腦的衝動,這和大家追求的不朽不同在哪?

黃鐵軍:復刻是一個轉換點,但不是終點。大多數人認為的不朽是復刻之後,還一直以原來的形式存在下去,但我說的複製只是不朽的轉換點,復刻體自身要以新的形式發展下去。比如把我複製後,再過幾十年我就消失了,它沒消失,但它已經不是我了,它的學習速度要快很多,大腦容量也更大,它成長為了全新的人,而我只是一個起點。

人類別太把自己當回事。人腦幾百億神經元只是未來人工智慧千億、萬億神經元的一個藍本,它會快速地繼續發展下去。我從來也沒有想過讓自己永久存在下去。我認為作為個體的不朽是沒多大意義的,在整個智能的進化史中,你只在某個時段有意義。

2.談路徑:「人類語言不是終極的表達方式」

生物模擬系統產生複雜可能性的潛力要比純數字系統大得多。

甲小姐:AI弄潮兒有兩種態度,一種是大腦的擁躉,一種是語言的擁躉。後者認為,語言 is everything,智能的本質就是語言,在這個底層世界觀之下,可能未來地球文明就變成了大型對話系統。今天因為ChatGPT,大部分人認為大語言模型是最牛的不朽方式,例如王小川原來以為要靠圖片、視覺才能實現通用人工智慧,結果發現只靠文字就實現了。

但我有個擔憂,語言可能會隨著文明的演變被大幅改變。比如《三體》里三體人用腦電波直接交流,《降臨》里的外星人不用線性語言,一個墨水團就代表一大段意義。在更高階的文明里,語言是有可能被淘汰的,文明不一定要通過你問我答來彼此理解。

黃鐵軍:至少語言可能是落後的。人類現在只會用語言交流,所以很多人覺得語言是智能的標準答案,但這是錯誤的。

人類語言肯定不是終極的表達方式,只是其中的一種表達方式。猴子的語言是不是語言?是語言,鯨的語言是不是語言?鯨的語言很豐富,可能甚至比人類語言還要豐富,只是我們不明白。語言的不同類型和它所處的環境、所附著的物理載體是直接相關、密不可分的。我們進化到今天,長出了身體的各個結構,聲帶、耳朵、耳膜生成的聲波,都跟我們的物理身體密不可分。

歷史上從來沒人認為語言包含一切。經典人工智慧路徑的符號系統中的「符號」是抽象的,它來自物理世界。例如「紅色」「藍色」「美」「丑」等語言符號都有物理基礎。如果不把符號和物理特性聯繫在一起,就沒有落地,無法完全表達世界。紅色如果不和光波聯繫在一起,跟綠色沒有什麼區別。傳統的語言學家從來沒有認為語言是描述世界的充分條件,它只是表達世界很重要的手段,只是把物理世界抽象出一部分來表達,不等同於世界。

為什麼這一次語言如此驚艷?包括我們不做語言的人也對語言的看法有了新的提升。原來語言不能落地的看法需要升級,只靠語言也能一定程度上grounding(落地),但不是全部。純粹的符號沒有意義,但當我們把語言當成整體,尤其是訓練成語言大模型之後,紅色的物理感知在語言空間出現了。大概在一兩年前,北師大心理學教授畢彥超來智源做報告,他做了一個實驗,對比紅色和綠色在盲人世界裡是什麼樣子。天生的盲人從來沒有感知過視覺信號,但他腦海中紅色偏暖,綠色、藍色偏冷。他的手觸碰到火的時候,別人可能會告訴他火焰是紅色的,觸碰綠色物體時都是冰冷的,他可能就會把感受打通了。盲人小孩子也會說藍天白雲、紅花綠草,但他講這些話的時候,腦海中的影像肯定跟視力正常的人不一樣。我們不能孤立地看符號,符號是相互解釋的。

甲小姐:即使視力正常的人,不同環境的人對同一事物的感知也不一樣,比如南方人和北方人對雪的感知就不同。沃爾夫提出了語言相對論——語言會反過來影響人的世界觀。

黃鐵軍:語言是世界觀的一部分。ChatGPT的出現讓語言的重要性提高了,但如果缺少視覺等其他感知手段,人對世界的認知是遠遠不夠充分的。在智能體構成對世界感知的過程中,語言、視覺、嗅覺、觸覺都是必要的。但我們的感知絕對是有限的,我們的眼睛只能感知到可見光,就算六感全開也是非充分的信號系統。

甲小姐:我隱隱有種擔心,原本人類有機會復刻大腦,乃至在生物和物理層面造出生命體,但現在人們不願意做了,覺得不如搞大語言模型快。

黃鐵軍:Hinton提出的模擬計算或可朽計算、有限計算,我們十幾年前就這麼想,並不是他的原創。Hinton選擇了一條合理的路線,讓AI不僅是學術研究,而是變成了實實在在的系統,產生了現實影響。但這並不是人工智慧的全部,他自己最近也說,「如果再給我一次機會,我會做脈衝神經網絡」。

其實我們已經做了十幾年脈衝神經網絡,最早的團隊做了30年。人腦是脈衝神經網絡,CNN(卷積神經網絡)、Transformer都是人工神經網絡,對神經系統的模仿是很粗糙的。但即便是如此粗糙的表達,仍然產生了這麼強的能力。原來研究者認為脈衝神經網絡路線更接近人腦,但CNN超出了這個預期。

人工智慧路線是有鄙視鏈的。做脈衝神經網絡的人認為CNN不高級,但現在不高級的東西產生了很強的功能,而高級的路線依然不能實現強智能。所以Hinton說,「要讓我研究,我就願意研究更高級的脈衝神經網絡,可惜我已經老了,沒時間再去研究它了」。但對於那些搞脈衝神經網絡的人,包括我在內,會認為我們是選了更高級的路線。

Hinton給我帶來的最大的變化是,讓我反思作為肉體的人類到底有什麼價值?我認為人類的獨特價值在於,我們有比人工智慧更豐富的創造能力。二者本質完全不同。純數字系統和生物模擬系統最根本的區別在於,生物模擬系統產生複雜可能性的潛力要比純數字系統大得多。

上世紀30年代,哥德爾和圖靈時代對純邏輯系統的能力已經有了明確界定,提出了不完備定理、不可計算數,說明純邏輯系統是不完美的,一定會推導出相互矛盾的結論。任何計算系統都只能在可數意義上進行計算,不能在不可數的世界逼近。人類的智能不僅僅是個計算系統,而是超越計算和邏輯的。

DNA是個數字系統,但你不等於你的DNA。當你的DNA通過蛋白質變成生物體的時候,它就有了模擬系統豐富的創新能力。DNA是跟物理環境相互作用之後形成的相對靜止的表達。大腦不同,數百億的神經元之間每時每刻的連接強度都不同,是可以表達連續信息的。

甲小姐:現在時代正在呼喚一個清晰的、對未來有號召力的基礎假設,讓大家能相對有序地去配合和投入,否則智能的路線可能一直混亂下去,誰都得不到足夠的資源。

黃鐵軍:可能不用那麼著急。定義路徑很重要,但定義不應該成為標準答案,並非所有人都應該照著標準答案去做。人工智慧還會開放一段時間的爭論,但不管時間多長,之後的變化會讓人們在新的條件下去討論。未來,智能一定會往更高水平進化,不會因為某一代人的定義或爭論而改變——我們只是影響演化趨勢的因素,現在人們往往會高估自己所產生影響的重要性。

3.談偏見:「科學並非第一性的」

製造智能的前提不是理解智能。

甲小姐:我理解為什麼有人認為語言包含了一切。在數學上,一條連續曲線可以填滿整個平面;在科幻里,一個智子可以在極限速度下無處不在。一些科技狂人認為用單一模態就應該做到everything。

黃鐵軍:他能做到和他做到了是兩回事。比如有了萬有引力定律不等於我們對世界的描述就完成了,它會產生無窮無盡的複雜性,儘管基本規則是一樣的。

甲小姐: AI的本質是科學還是技術?

黃鐵軍:它就是技術。需要解決無數個小問題,產生無窮的可能性。

甲小姐:OpenAI用暴力美學一路投奔AGI,這不是科學?

黃鐵軍:主流方法論從來都是暴力美學。從主流方法論上,構造一種系統,訓練系統產生豐富的智能,這是AI基本的方法論。這和尋找終極奧秘的公理思維背道而馳——構造一個系統可以不斷往裡面添加新的要素,讓系統不斷變化,功能也會不斷變化,這是技術思維,也是AI的主流思維,但科學的思維是要去找基本原理。這是兩種思維方式,是科學和技術最本質的區別。有些人說技術是第二性,科學是第一性,我認為這是錯的。科學並非第一性的,真正的科學發現和真正的技術發明都是從零到一,都是原始創新,不以對方為前提。

甲小姐:為什麼「科學並非第一性的」?

黃鐵軍:以數學為例,我認為你曾就讀的學院名字起得就有問題——數學科學學院,但數學既是科學又是技術。很多數學家就在做技術——構造原本不存在的事物叫技術。 AI是構造具象系統,是技術;很多數學分支是構造抽象系統,拓撲學首先是一種技術,它在構造一層一層的抽象形態。哥德爾偏科學思維,圖靈偏技術思維。從定義看,科學是發現事物和現象背後的規律;技術就是創造新的事物——可以是物理的、具象的事物,也可以是抽象事物。

甲小姐:很多數學家做的是證明。

黃鐵軍:證明的前提是提出問題,提出問題首先需要技術思維,要先構造出一種可能性。

甲小姐:圖靈機的構造過程包含科學問題。

黃鐵軍:當圖靈說不可計算數存在的時候,是科學問題,但當他去想像用一台機器不斷讀寫紙帶,那是技術思維。他必須先把那個抽象機器想像出來,靠那個抽象機器去證明科學問題。

為什麼科學不是第一性的?科學是發現事物背後的規律——首先事物要存在,不存在你發現什麼規律?自然科學存在是因為自然界存在,物理學存在是因為物理世界存在。我可以根據科學規律創造事物,也可以完全不根據既有科學規律創造事物。指南針就不是根據已知科學規律造出來的,AI也是這樣。這不是反科學,不是偽科學,而是技術發明時還不理解背後的科學原理。

甲小姐:你之所以強調這一點,是因為擔心國內很多時候過分要求搞技術的人必須解釋科學原理?

黃鐵軍:如果堅持這種思維方式,中國四大發明都發明不了,這是阻礙創新的一種思維誤區。

甲小姐:總強調科學的第一性原理是挺傲慢的?

黃鐵軍:我們先要糾正對科學技術的這種偏見。不是說它完全不正確,確實有很多技術系統事物的發明是基於已知科學原理的,比如量子力學對很多現代發明起重要作用,但是,同樣有更多事物,是事物先被發現,再有原理解釋,甚至到現在還沒有解釋。你看我2015年寫的那篇科普文章,第一段寫的就是這個觀點。人工智慧到底是「理解智能」還是「製造智能」?我們是要「製造智能」。「製造智能」的前提是不是要「理解智能」?不是。

技術講how,怎麼做你要能說得清楚;科學講why,也就是追尋背後的規律。

甲小姐:現在確實存在悖論。如果無法回答why,很難實現how,如果無法自證合理,你就很難申請經費、融資、招人。

黃鐵軍:是的,這就是技術最難的地方。AI就是這樣,ChatGPT是龐然大物,既無法解釋又無法監管,但是它出現了。即便某天你說ChatGPT既可以解釋又可以監管,將來還會出現更強大的系統無法解釋、無法監管。AI一定是這麼往前發展的。人類能夠製造出具有自主意識的「超級大腦」嗎?這方面的哲學論辯已經持續上百年,再喋喋不休已經意義不大。行勝於言,對這個問題最好的回答是製造出「超級大腦」。

4.談選擇:「真正的智能系統無法解釋」

無法解釋不是階段性的,而是一種本質性。不可解釋是比解釋更第一性的存在。

甲小姐:你什麼時候意識到AI的路徑不一定要基於理解和解釋?

黃鐵軍:在2015年我寫那篇文章的時候,是我一生中最大的思想轉折。我44歲之前基本的思維方式是要先解決why再去實現how,這也是大多數人的思維方式。但在有生之年有沒有可能出現AGI和強大的人工智慧?如果想要實現,要怎麼去實現?在思考這個問題的過程中,我最重要的思維障礙被打破了:不能等著解釋了,不能等著搞清楚為什麼才去製造智能。

甲小姐 :當時什麼觸發了你的思想轉變?

黃鐵軍:我大概從2010年開始學神經科學,在和神經科學家合作的三、四年里思想發生了轉變。原本我們搞IT的人想法就是,科學家把生物的機理原理告訴我,我們用算法實現,這就是科學。但是做了幾年,幾乎無效。

神經學家也還在找why的過程中。人腦是個黑箱系統,我們所已知的只是黑箱中很有限的部分。例如,我們以為很清楚眼睛視網膜的工作原理,但實際可能只了解10%。當然,我們希望一步步分析視網膜內的信號變換過程,把黑箱透明化,這是科學目標。我們想通過科學家找原理,科學家問我們有什麼技術手段能幫他們搞清楚原理,雞生蛋,蛋生雞,那這事不就沒法做了嗎?

甲小姐:我發現接觸過生物學的人和純數理邏輯的人有不一樣的科學觀。我之前對話特倫斯,他學了物理又學了生物,生物的處理複雜問題的思維方式成為他認知的轉折點,讓他相信「進化比你聰明」。

黃鐵軍:我也同意。但問題在於,進化的聰明難以告訴我們進化是怎麼做到的。

甲小姐:進化就是某種暴力美學——物競天擇,適者生存。

黃鐵軍:這是原則,強化學習也是這樣,但地球花了多少代價才進化出我們?我們不可能再進化一遍。

甲小姐:是否可能在數字環境下加速過程,把地球46億年的發展史變成AI的4年?

黃鐵軍:如果用相等的代價做同樣的系統,方法論是對的。但問題在於讓數字環境逼近物理真實有很大的挑戰,並且試錯成本太高。以自動駕駛為例,即使在數字空間裡,撞車的可能性也是無窮無盡的。如果直接用進化好的結果,這也是一種思路。但是有文獻或者原理的,我們可以用。沒有的,三五年甚至十年可能都難以等到。這個時候就促使我去想,沒有原理我能不能做?沒有原理又該怎麼辦?回頭一看,沒有原理能做的事太多了。萊特兄弟發明飛機的時候沒有空氣動力學。即便是現在,空氣動力學也沒有完全解釋飛行的所有原理。差不多這個時間點,我發現不能再等著科學家奠定理論基礎我們再去實現,這個邏輯是有問題的。

到今天,像ChatGPT這種大模型產生了智能,但科學上對複雜性理論的探索還在早期。智能是一種現象,甚至是我們可能看到的最複雜的現象。在科學沒有給出原理幫助你設計系統之前,你能幹什麼?你能做的就是構造複雜系統。

甲小姐:說起複雜性科學,美國聖塔菲研究所的梅拉妮·米歇爾教授在《複雜》中提到一個Logistic模型啟發了我。它解釋了為什麼看起來沒有任何偶然性且簡單的方程產生了混沌的效果。是不是即使再複雜的系統,也還是可以用極簡的東西去表達?

黃鐵軍:這是一種信念。但我需要糾正一下,一個極簡的方程能產生複雜的現象,這是其中一種形態,不是全部。疊代能產生那個曼德布洛特集合的複雜圖案出來,似乎很多奧秘都在裡邊了,那是一種形態,但世界的複雜性在於,除了決定論意義上的基本規律,經過相互疊代、相互作用形成的複雜性之外,還存在隨機性,真正的隨機性。時間、空間相互作用產生無窮無盡的可能性,這是世界為什麼有意義的地方——世界永遠有無窮無盡的複雜性,永遠有全新的可能性,絕對的不朽是沒有的。

甲小姐:這種不可解釋、無法監管,除了人工智慧,你在別的學科里感受過嗎?

黃鐵軍:沒有。我說的無法解釋不是階段性的問題,而是一種本質性。真正的智能系統是無法解釋的。首先,人類的複雜性是有上限的,我們要對人類解釋世界的能力有邊界感。其次,當我們談論智能的複雜性時,「不可解釋」是比「解釋」更第一性的存在。解釋總是追著不可解釋往前發展,不可解釋的出現才是世界進步的第一性。

甲小姐:既然它不可解釋、無法監管,又這麼不確定,那此刻AI最應該投入人力、物力的是什麼地方?

黃鐵軍:不可解釋、不可把控的未來,大家是很擔心的。但是我認為即便我們能完全把控的未來,其實也是充滿風險的。發展到一定階段就停止,這是一種選擇;出現了就不斷地向前進化發展,這是另一種選擇。這確實是人類要做的選擇題。不同人肯定有不同看法。但「如何選」並不等於世界就會「如何發展」。

甲小姐:讓人工智慧比人更強大或者讓人工智慧對人類絕對安全,非要讓你二選一,你選哪個?

黃鐵軍:你非要讓我選,我會選「更強大」,這是不可阻擋的趨勢,無論我是否主動選擇。

甲小姐:「甲子光年」有對科技發展三大基本規律的判斷。第一條就是科技有不可逆性,科技自有它的發展方向,但凡一個更契合需求的強大科技是可行的,它就會活下來。

黃鐵軍:或者從正面的角度來看,如果我們選擇不做,是否能解決掉未來的所有問題?我們人類面臨很多挑戰。

甲小姐:人類面臨很多挑戰,沒必要過分執著於人和AI的關係?

黃鐵軍:是的。只靠人類肉身的智慧與進展去應對挑戰,速度可能是非常慢的。危險到來時,我們可能無力應對巨大的挑戰。如果地球上出現更強的智能以及能提出可行的解決方案時,我們不應該拒之門外。

甲小姐:既然如此,為什麼當時你還在那封暫停巨型人工智慧研發6個月的公開信上簽字?

黃鐵軍:儘管它是不可避免的,但發展太快,超出我們大多數人想像的時候,需要一個緩衝的時機。太快的話,會對人類心理造成不可逆轉的傷害。事實上,這正在發生。

5.談未來:「人不是萬物的尺度」

我們做的感知晶片比人的視覺快1000倍,它能看到很多我們看不到的東西。武林高手在它眼中就像蠕動的蟲子。

甲小姐:Hinton和Sam的年齡差了一倍,他們對AI的認知和自身年齡有關係嗎?

黃鐵軍:沒什麼關係。

甲小姐:一般來講,對學科越了解的人越能祛魅,但即便你身處行業中心,在用顯微鏡看AI,你也依然認為AI有很強神秘感。你眼中的AI和大眾眼中的AI有什麼區別?

黃鐵軍:AI很神秘,但我的心理準備會更充分。如果有一天AI真的超越人類,我心理壓力會小一些。

甲小姐:我作為大眾也沒有什麼心理壓力,我很好奇智能水平更高的世界會發生什麼。

黃鐵軍:那是因為你還沒有感受到切膚之痛。如果你失業了,或是收入突然從1萬元降到1000元,你會怎麼想?另外,小孩子看到AI能力這麼強,能解數學題,他不想學習了,怎麼辦?整個社會體系都可能被衝垮。總的來說,我認為現在整個社會對AI的響應和反饋很被動,還是要有一個時段讓大家好好想問題。歷史雖然改變不了,但是也讓我們有個接受過程也好。

甲小姐:和國內外其他AI領軍者相比,你的觀點代表少數人還是多數人?

黃鐵軍:少數人。2015年我在文章中寫,AGI可能會在2045年左右實現,那時我已經有了心理準備。當時和我想法一樣的人1%都不到,現在可能多一些,但我想還沒超過10%。

甲小姐:大多數人的觀點是什麼?

黃鐵軍:現在有一部分人仍然不相信AGI會到來,甚至不相信AI真的有這麼強大,還有人認為,人類的智能都沒弄清楚,怎麼能有這麼強大的人工智慧?傳統思維方式的影響還是很大,但實際上衝擊已經近在眼前。

甲小姐:什麼最讓你有衝擊感?

黃鐵軍:我們總是以為人是萬物的尺度,這種思維方式根深蒂固。但實際上人的智能很有局限性。我們很少反思自己的局限性,而往往放大自己的能力。AI對人類的衝擊大概有幾個方面——

一個是決策能力。例如,AlphaGo的決策能力遠超人類。量化交易對股票市場的影響已經很大了,量化交易背後實際是AI在控制。如果智能水平繼續提高,全世界的財富平衡會被打破,財富會集中到最強的AI系統中,交易的中心化程度會越來越高。

另一個是感知能力。AI感知物理信號的類型、廣度和速度比人類快得多。傳統的視覺晶片都是照著人的標準做的,只要人感覺滿意就OK了,看電影、看電視都很連續就夠了,但我們做的脈衝視覺晶片比人的視覺快1000倍,它能看到很多我們看不到的東西。人類眼中的世界對它而言是慢速的。機器人對物理世界的感知和人類根本不是一個尺度,好萊塢電影里人和機器還能打好幾個回合,但實際上對機器人而言,人類的出招是慢速系統,武林高手在它眼中就像蠕動的蟲子,它一巴掌就把人殺死了,人類招式根本沒用。

除了決策和感知,還有以GPT為代表的數據整合能力,也足以給世界帶來顛覆性影響。

我們已經到了那個時間點,不用等到AGI完全實現,AI對人類社會的影響可能就到了我們難以承受的程度。這個世界的運行已經不受我們控制了。我們也可以選擇逆來順受,做「二等公民」,也能過得很不錯,經濟水平提高了,大家也不用天天上班勞動了。

甲小姐:我們是否有可能在構建出比人類更強大的AI的同時,讓它為我們所控制?

黃鐵軍:這在原理上是行不通的。早在上世紀50年代,控制論先驅之一阿什比就在《控制論導論》中提出,任何有效的控制系統都必須與它所控制的系統一樣複雜。如果人類製造出來比自己更強大的AI,人類無法控制它。

甲小姐:我可以把電拔掉,或是砸壞它的主機。

黃鐵軍:現在這世界能拔電嗎?你有什麼能力把全世界的電廠全部關掉?你能想到的手段都在更強的智能系統的眼皮子底下,它用上帝視角看你所有的動作,一切都在它的設計中,就像孫悟空跑不出如來佛的手掌一樣,你所有東西都在它手心裡比劃,有什麼用?

我說的二等公民並沒有貶低的意思。更強的智能系統會照顧到所有人的利益,不會侵入人類,甚至不會幹預人類,讓我們自由發展,我們的夢想都能實現,但所有事都是人工智慧掌控的。在未來那個更大的棋局裡,人類就是棋子。你接不接受?

甲小姐:現在大自然的系統也比人類強大,地震海嘯來了我們也逃不了,但我們可以爭取和自然和諧共處,未來人類和AI也可能是一樣的。

黃鐵軍:我認為這有很大可能性會發生。我們可以一腳踩死螞蟻,但我閒得沒事踩螞蟻幹什麼?讓它正常生活唄。

甲小姐:很多人恐懼AI是因為太把AI當物種了,如果把AI當猩猩會有恐懼感,但如果把AI當電,就不會有恐懼感。AI不是公民,AI是基礎設施,即便某天它可能變成世界的掌控者。

黃鐵軍:如果我是那個更強的智能系統,我也不會去衝垮原有的系統,反而會讓整個系統更好地演化。如果未來更強大的智能系統是「不朽的」數字系統,它一定需要模擬的、「可朽的」生物的模擬系統給它不斷注入新的知識。既然如此,它肯定會好好養著人類。

文章來源: https://twgreatdaily.com/zh-tw/2f782a1603328bfa1f8871eb61cb2c12.html