作者 | Thomas G. Dietterich
編譯 | Fawn
編輯 | 叢末
AI 領域所取得的最新進展給 AI 系統帶來的進步,舉世矚目,但是仍有一些批評者聲稱,即便如此,這些系統仍舊無法實現「真實」、「準確」、「可信賴」的理解。
在他們看來似乎 AI 系統必須是萬能的,才能真正被人類稱為「理解」。
Thomas G. Dietterich 是機器學習領域的奠基人之一,針對這個問題,他認為對AI系統的這種要求有點過分,因為我們對人類自身也沒有這麼高的標準。
他指出,「理解」以一種連續的能力譜而存在,比如大部分人對「水」的理解,可能限於水的一般屬性,而不知道水的導電等屬性,但我們只會認為他們對水的理解不全面,而不會說他們的理解不「真實」、「準確」、「可信賴」。
因此,我們同樣應該以這種態度來評估 AI 系統。
他既不贊成「如今的基於深度學習的系統沒有表現出真正的理解,因此應放棄深度學習」的觀點,也反對 「當今基於深度學習的系統已經取得了巨大進步,進一步研究它們將『搞定智能』」的觀點。
作為機器學習領域的奠基人之一,Thomas G. Dietterich的研究貢獻主要包括將糾錯輸出編碼應用於多類分類問題,他發明了多示例學習、層次強化學習MAXQ框架及將非參數回歸樹整合到機率圖模型中的方法。此外,Dietterich教授也參與撰寫了美國白宮發布的兩份重磅AI報告:《為人工智慧的未來做準備》和《美國國家人工智慧研究與發展策略規劃》。
一、關於「理解」之爭
運用「真實」、「準確」、「真正」這類詞意味著「理解」是二元的,即:一個系統要麼能「真正」的理解,要麼不能。這種思維方式的紕漏在於,人類的理解也是不完整和不完美的。
Thomas G. Dietterich 教授主張「理解」以一種連續的能力譜而存在。比如,對於「水」這一概念,很多人能想到水的性質:潮濕、可飲用、植物必需、遇冷結冰等等。但同時,很多人並不知道,水也是一種電導體,因此淋浴的時候不能使用吹風機。即便如此,我們也不能說這些人沒有「真實」、「準確」、「真正」地理解 「水」,只能說他們的理解是不全面的。
因此,我們應該以同樣的態度來評估 AI 系統。現有的系統已表現出某種程度的理解。例如:當我對 Siri 說 「打給 Carol」,而 Siri 也撥出了正確號碼,這能夠表明系統理解了我的指令;當我問 Google 「IBM的Deep Blue系統擊敗了誰?」,它回答:「Kasparov」,這也能證實系統理解了我的指令。當然這種理解有一定限度,當我繼續問 Google:「when?」它就只能給我解釋詞典上關於「when」的解釋。顯然它沒有把我第二個問題當做對話的一部分。
關於「理解」的爭論可以追溯到亞里斯多德,而在 Searle的「Chinese Room argument」(無論程序如何聰明或像人類一樣,執行程序的數字計算機都不能表現出「頭腦」,「理解」或「意識」)對於「理解」的認識更為清楚。我堅持主張功能主義,他們以功能上的理解為特徵,並根據它們在產生測量功能中的因果作用來評估大腦或AI系統中各種內部結構的貢獻。
從軟體工程的角度來看,功能主義鼓勵我們設計一系列測試來衡量系統的功能。我們可以問一個系統(或一個人),如果「我把水冷卻到20度會怎麼樣?」或者「如果我在淋浴時使用吹風機會發生什麼?」 然後測試反應。當系統的回答在一定範圍內是適當的,我們認為系統理解正確;當系統的回答在一定範圍內是錯誤的,針對這一點我們已經發現了系統不理解的情況。
為了使系統能夠理解,它必須在不同的概念、狀態和動作之間建立聯繫。當今的語言翻譯系統可以正確地將英語中的「水」與西班牙語中的「水」連接起來,但是在「水」和「導電體」之間沒有任何聯繫。
二、批評的進步意義
對人工智慧最新進展的批評主要來自兩個方面:
第一,圍繞人工智慧的炒作(由研究人員、他們工作的組織、甚至政府和資助機構製造)已經達到了極端的程度。它甚至引發了「超級智能」或「機器人末日即將來臨」的恐懼。要反駁這種無稽之談,批評是必不可少的。
第二,批評是關於人工智慧技術未來研究方向以及政府撥款分配的辯論的一部分。一部分批評者是聯結主義的倡導者,他們發展了深度學習並支持繼續進行這一研究。另一部分批評者倡導基於符號的構造和操縱(例如,使用形式邏輯)的AI方法。也有越來越多的社區主張在混合架構中結合這兩種方法的系統。
批評對於此討論也至關重要,因為 AI 社區必須不斷挑戰我們的假設,並選擇如何投入社會的時間和金錢來促進AI科技的發展。
然而,Thomas G. Dietterich 教授反對這樣的論點,即「如今的基於深度學習的系統沒有表現出真正的理解,因此應放棄深度學習。」
他認為,這個論點與 「當今基於深度學習的系統已經取得了巨大進步,進一步研究它們將『搞定智能』」的論點一樣是錯誤的。我們應該繼續追求聯結主義方案,象徵主義方案,以及新興的混合方案,因為它們都將繼續富有成效。
對深度學習的批評已經引領了新的方向。特別是,深度學習系統可以在各種基準任務上與人類的表現相匹配,但卻不能推廣到超級的、真正非常相似的任務,這已經在機器學習中產生了危機。科學家們用一些新的思想諸如學習不變量、發現因果關係等模型來回應此類問題。這些思想既適用於符號學習,也適用於聯結主義機器學習。
三、專注於功能的進步
我們應該在不涉及「什麼才是真正的理解」的爭論的情況下,追求人工智慧科學技術的進步。相反地,Thomas G. Dietterich 教授鼓勵我們將重點放在我們應該在未來 5 年、10年或50年內努力實現的系統功能上。
我們應該根據可以在 AI 系統上執行的測試來定義這些功能,以衡量它是否具有這些功能。為此,這些能力必須付諸實施。簡而言之,他指出測試驅動的AI發展,這就要求我們將模糊的理解和智力概念轉化為具體的、可衡量的能力。這本身就是一個非常有用的練習。
操作測試不必只考慮AI系統的輸入輸出行為。它們還可以檢查產生此行為的內部結構(數據結構,知識庫等)。
人工智慧優於神經科學的一大優勢是,我們可以更輕鬆地在人工智慧系統上進行實驗,以了解和評估其行為。然而,需要注意的是,包括深度學習在內的聯結主義方法通常會創建難以解釋的內部結構,和大腦有些類似。
因此,我們不應該將確保某些結構(例如,符號表示)存在作為研究目標。相反,我們應該專注於所需的行為能力,並尋求內部機制如何實現這些能力。例如,要進行成功的對話,每個參與者都必須跟蹤互動的歷史。但是現已有很多方法可以做到這一點,我們不一定要期望在深度學習系統中建立明確的歷史記憶。相反地,僅僅因為我們編寫了一個特定的內部結構,也並不意味著它就按我們所希望的那樣運行。Drew McDermott 在他的著名評論《人工智慧與自然愚蠢》中詳細討論了這個問題。
四、直面成功與批評
人工智慧不斷發展和批評的浪潮的結果之一就是所謂的「人工智慧效應」,其中人工智慧領域被認為是失敗的,因為最先進的系統沒有表現出真正的理解或真正的智慧,其結果就是AI的成功被忽視,經費被取消。
例如,曾經有一段時間,下棋或下圍棋被認為是衡量智力的一種標準。但是,1997年,當Deep Blue擊敗Kasparov時,一位著名的人工智慧研究人員認為,在西洋棋中擊敗人類已經展現出真正的智能,而同時必須解決「卡車倒車的問題」,這涉及將一輛鉸接式半挂車倒進停車位(個人通信)。
實際上,九年前 Nguyen 和 Widrow 已經使用強化學習解決了這個問題。如今,許多有思想的評論家再次提出新任務,並提出新的必要或充分條件,以聲明系統「可以理解」。
同時,人工智慧研究與開發正在提供功能越來越強大的系統,這些系統可以為社會帶來價值。人工智慧研究人員應該為人工智慧的成功正名,同時也應該承認人工智慧的缺點,這對學術誠信和持續的資助都很重要。
Thomas G. Dietterich 教授指出,我們必須遏制圍繞 AI 新進展的炒作,我們必須客觀地衡量 AI 系統在哪些方面了解用戶(是否了解用戶)、它們的目標,以及他們操作的更廣泛的真實世界。
「讓我們不要再認為人工智慧的成功是虛假的、不真實的,讓我們繼續以誠實和富有成效的自我批評向前邁進。」
via https://medium.com/@tdietterich/what-does-it-mean-for-a-machine-to-understand-555485f3ad40