人工智慧,讓機器也會「感情用事」 | AI那廝

2019-05-15     返樸

近年來,「人工智慧可以有理智,但不可能有真正的情感」的傳統觀念開始受到挑戰。目前的工作至少已經展示了將情感引入通用人工智慧的理由和可能性。通用人工智慧對於情感的探索有助於揭示情感發生的功能性前提和後果,計算機為此提供了一個精確的實驗平台。甚至連精神疾病的研究都可能從這裡得到啟示。

撰文 | 王培(美國天普大學計算機與信息科學系)

近年來計算機的「智力」所達到的範圍越來越廣了,人腦的各種功能紛紛被AI再現,儘管不少仍是在初級階段。即使如此,還是有一些領域被普遍認為是機器無論如何也無法染指的,比如情感。一個常見的斷言是「人工智慧可以有理智,但不可能有真正的情感」。這種觀點有悠久的歷史根源,但不必去查哲學史,我們也知道「理智」和「情感」一般被看作是對立的,而且屢屢被告誡在做決定時不應該「感情用事」,因為那是非理性的。在傳統的理性模型中是沒有情感的位置的,而AI系統作為這些模型的具體實現,自然沒有情感可言,隨便找一本AI教科書就可以證實這一點。科幻小說和電影也反覆強化了這種觀念,以至於「像機器人」往往成了對那些思維有條理,處事冷靜,情感不外露的「理工男」的常見評語。但近年來,這種傳統觀念開始受到挑戰。

「情」在「理」之中

在對人類認知活動的研究中,情感的作用被越來越多的研究者認為是不可或缺的了。這些作用體現在「自我控制」和「人際交流」這兩個方面。

有些情感體現著對系統自身狀況的評價,比如(正面的)愉悅、得意和(負面的)悲痛、悔恨。另一些情感則體現著對外界對象的評價,比如(正面的)喜愛、親切和(負面的)痛恨、厭惡。不同的情感會引發不同的應對策略,比如說同為負面情感,憤怒會令人慾戰,而恐懼則會令人慾逃。和通過深思熟慮才採用的行動相比,情緒化反應有直接、快速的特點,儘管常常失之粗疏草率。

由於很多人類情感伴有面部表情和軀體反應,它們也因此在人際交流過程中發揮著語言所難以企及的作用。這其中包括基於對他人情感的識別來決定自己的應對(察言觀色),以及通過情感表達來影響他人的行為(動之以情)。

上述對情感的功能描述並不涉及情感的生理基礎。這也就是說在計算機系統中原則上也可能有類似的需求以及實現類似功能的機制。這也就是目前AI中相關工作的出發點。在現有的研究中,主要關注點分別對應前面的「控制」和「交流」兩個方面。

近年來興起的「情感計算」就是試圖在人機互動過程中包括情感成分,以便更好地服務於用戶。在和人交流的過程中,這種系統會識別用戶的情感狀態,並採取相應的行為,包括模擬人類的情感表達。各種聊天程序和玩具機器人都在這方面絞盡腦汁,希望取悅使用者,甚至滿足使用者的情感需求。

通用人工智慧(AGI)中的情感研究則基本是在另一個方向上。這裡的主要目標不是讓計算機看起來像是懂得或擁有人類情感,而是讓它們真的有自己的情感,即主要以這一機制滿足系統自身的需求,而不是滿足用戶的需求。在這個過程中,系統的「情感」是否和人類的完全一樣並不重要,而重要的是其產生、發展、效用等等是否和人類情感的相應方面類似。近年來已經有若干「機器情感」的模型被提出和初步實現了。由於篇幅的限制,我這裡不能對各種方案進行全面討論,而下面只介紹我們自己團隊在這方面的探索。

納思(那廝)的情感

我在前面的多篇文章(比如《你這是什麼邏輯?》,點擊左下角「閱讀原文」可獲取)中介紹過我設計的AGI系統「納思」,而現在的專欄名「AI那廝」也是源於此處。這次輪到談其中和情感有關的側面了。和以前一樣,下面的描述是高度簡化的,有興趣或疑問的讀者可以去看我們的論文甚至源程序。

納思和其它AI系統的一個根本性的差別就是其「知識和資源相對不足」假設。簡單地說,就是系統對於它要實現的目標往往有「不知道」的和「沒想到」的。在這個限制下,系統無法保證總能找到絕對正確或最佳的解,而只能提供它目前想到的最好的解,儘管它始終在努力積累經驗以提升自己的能力和效率。

這個限制一個直接的結果就是納思不能對所有目標一視同仁。由於系統中的目標往往互相衝突(所謂「魚和熊掌不可兼得」),系統無法保證做到十全十美。對一個具體事件而言,系統對它的「願望」(希望其發生或不發生)和系統對相應「現狀」判斷(實際發生了或沒發生)的比較就決定了系統在這方面的「滿意」程度。如果希望發生的確實發生了,或不希望發生的確實沒發生,那系統就滿意;如果不希望發生的卻發生了,或希望發生的卻沒發生,那系統就不滿意。由於願望和現實判斷在納思里都是有不同程度的,滿意也是個程度問題。這就是納思中情感的起源,即作為對某方面現狀的主觀評價。

各方面的滿意程度的總和構成系統對現狀的總體滿意程度。當然,在這個「匯總」過程中,各個事件的「權重」各有不同,一個大的「不如意」需要很多小的「如意」才可能抵消。由於時間資源的限制,納思在做這個評價時不可能考慮到系統中的所有事件,而僅僅是其中少數那些當前或近期在系統的注意範圍之內的。這個總體滿意程度就決定了系統當前的基本情緒狀態,也就是「高興」或「不高興」的程度。一般說來,系統極少「萬事如意」或「處處碰壁」,而是處於某個中間狀態。即使如此,總體情緒也有「正、負」之分,取決於「如意」和「不如意」的相對比例。

在此基礎之上,系統中的概念及其對應的事物也都會被沾染上各種情感色彩(也可以稱為「好惡」值),主要反映了它們和系統總體滿意程度的相關性。如果系統和一個對象打交道時常常感到高興,儘管該對象和系統狀態可能其實並無因果關係,但系統仍會給它一個正面的評價(比如「愛屋及烏」),反之則是負面的評價(比如「遷怒」)。就好比如果我每次碰到某人都會伴隨著某種不愉快的體驗,我對此人就會產生某種負面情感(比如警惕),這也不能說是毫無來由的。當然很多事物可能從來也沒有被帶上任何此類感情色彩,也有事物處於「愛恨交織」的狀況。

隨著系統內外環境的變化,上述情感因素均會變化,但緩急不同。對個別事件的滿意程度隨願望和現實的接近或背離而隨時改變,可是系統的整體情緒狀態變化相對而言就要慢些。對事物的情感是歷史上多次評價的總結,變化就更緩慢了。無論如何,這些因素體現了系統本身對情境和事物的主觀評價,因而構成了系統對它們在「客觀描述」之外的另一種認識。這裡的重點不是事物本身的屬性,而是它們和系統願望之間的關係。比如說系統在認識了客戶甲乙丙丁之後,除了記住了他們的姓名、職業等等之外,還記著他們對自己是否「友好」。

在系統沒有足夠的知識或時間對各個事物進行細緻的針對性處理的情況下,僅依靠它們的「感情色彩」決定應對往往不失為一種在統計意義下有效的便捷策略。在目前的納思中,情感因素的影響主要體現在下列方面:

1. 在其它因素相同的條件下,帶有強烈情感色彩(不論正面還是負面)的概念和任務會得到更多的注意,也就是更多的時間和空間資源。這就是說,如果用戶給納思下達了三個同等重要的任務,但它不可能有時間全都完成,那它就會依照自己對它們的不同「喜好」程度來分配時間。

2. 在目標之間發生衝突時,情感評價會成為選擇的重要根據。這可以被作為「兩人掉河裡先救誰」之類的心靈拷問的合理性基礎。

3. 在決策過程中,帶有強烈情感的任務更容易觸發系統的外部行動,而不必付出深思熟慮所要求的時間代價。「情急之下」的反應儘管往往在事後看來不是最優的,但卻很可能是救了命的。

4. 在系統「心情好」的時候,它會給新任務和相對不重要的任務更多的考慮;相反,在「心情差」的時候,它往往聚焦於當下的難題。根據前面的描述,心情差說明有重要目標尚未達成,這時自然不該分心再去干別的。

當然,上述設計僅僅觸及了情感機制的簡單形式,而後面任務還有很多。在納思的研發計劃中,主要包括情感的進一步分化(通過滿足感和其它概念的結合,比如區分其不同的特徵)和各種情感的不同後果,情感在外部交流中的使用和辨識,「同情」的形成和限度,自我情緒調節和控制等等。當納思被實現在機器人系統中時,情感會被用來影響更多方面,比如系統的能源消耗速率(一個機器人跑多快將取決於它多著急)等等。

機器情感的界定和後果

儘管很初等,目前的工作起碼已經展示了將情感引入通用人工智慧的理由和可能性。根據我的智能定義(見《人工智慧:何為「智」?》,點擊左下角「閱讀原文」可獲取),情感並不是智能的一個必要成分,但卻是高級智能系統的自然需求,因為情感機制能讓系統在約束條件下更有效地使用知識和資源。根據上面的解釋,「情感」和「理智」儘管可以密切協作,其間的差別依然存在,因為後者一般基於對明晰表達的當前信念和目標的直接處理,而前者的來源和表達常常難於分析和辨識。但這絕不說明情感是空穴來風,是「非理性」。「情感」或許更應該被看作「理智的積澱」。比如說愛憎的來源儘管常常難以說清,卻絕不是沒來由的。

這不是說傳統的理性模型都錯了。它們針對的問題是目標單一而且知識資源充分,而在那種條件下情感往往的確只能添亂。但現實並不總是那麼井井有條。多目標的競爭要求系統能做出輕重緩急、親疏遠近之間的分別,而時間壓力要求快速反應。情感的確有很多負面後果,但在很多情況下沒有情感反而會更糟。

對本文觀點的一個預料之中的反對意見是說納思不能算有「情感」,因為其中找不到多巴胺、腎上腺素、荷爾蒙等等的對應物,它也不會「喜上眉梢」或「怒髮衝冠」。和在很多其它關於AI的討論中一樣,這裡的關鍵是要不要在「人類情感」和「動物情感」之上引入一個更一般的(功能性的)「情感」概念。只要承認這種抽象的必要性,是否管它叫「情感」就主要是個用詞習慣的問題了。如果「情感」一定要被定義為動物才能有,我們可以管納思的相應機制叫「機情」,但這實際上並不影響這個機制和人類情感的相同點和不同點。比如說如果你設計的機器狗有這種機制,那你如果在測試其平衡能力時經常踹它(像那個廣為流傳的錄像里那樣),就不要奇怪它為什麼總躲著你了。如果你的機器人不幹活而跑去看電視,那也沒什麼可奇怪的。

這當然就會導出對「機器情感」的另一個反對意見,即擔憂其社會後果:如果機器人恨人類怎麼辦?在我看來恰恰相反:讓人工智慧有情感很可能是保證這一技術的安全性的必然要求。對一個有自主性和適應性的系統來說,由設計者完全事先決定其在所有情況下的反應是不可能的。如果希望它在未來千變萬化的情況下按我們的期望來行為,讓系統可以辨別喜惡和區分輕重緩急就是必然的了。一個從心裡愛人類的AGI遠比一個僅僅牢記各種道德戒律的要安全得多。當然這裡還有很長的路要走(怎麼讓它愛人類?電影《A.I.》中那種「思想鋼印」靠譜嗎?),旅途中又是機會和挑戰同在,可這不正是科學探索的本色嗎?

對機器情感研究的另一個結果是使我們對情感在人類思維中的作用得到進一步的認識。和注重於情感生理機制的研究不同,AGI在這方面的貢獻會是揭示情感發生的功能性前提和後果,而在這裡計算機提供了一個精確的實驗平台。甚至連精神疾病的研究都可能從這裡得到啟示。以納思為例,如果情感成分在系統決策過程中起的作用太大或太小,系統都會表現出某種「病態」,而我們或許會在其中發現和人類精神疾病類似的地方。

參考文獻

1. Pei Wang, Max Talanov, and Patrick Hammer, 「The Emotional Mechanisms in NARS」,Proceedings of the Ninth Conference on Artificial General Intelligence, pages 150-159, New York City, July 2016

2. Jean-Marc Fellous and Michael A. Arbib (editors), Who Needs Emotions? The Brain Meets the Robot, Oxford University Press, 2005

版權聲明:本文由《返樸》原創,歡迎個人轉發,嚴禁任何形式的媒體未經授權轉載和摘編。

《返樸》,致力好科普。國際著名物理學家文小剛與生物學家顏寧聯袂擔任總編,與幾十位學者組成的編委會一起,與你共同求索。關注《返樸》(微信號:fanpu2019)參與更多討論。二次轉載或合作請聯繫[email protected]

文章來源: https://twgreatdaily.com/zh-tw/t-OUQmwB8g2yegNDYfrm.html