人類是否能養育出富有人文關懷的AI,以使人機攜手進化走向至善未來? 而「科技向善」所著眼的,正是探索人與 AI 的正確相處之道。
人工智慧的快速發展必將帶來顛覆式的進化革命,但機器可視為人類的延伸,卻並不具備天然的善意或者惡意,關鍵在於如何使用。
2019年11月9日,由騰訊社會研究中心主辦的第四屆騰雲峰會「在數字世界安然棲」落幕北京。其中,「科技大爆炸——AI如何向善?」研討會邀請了人工智慧科學家和哲學家一起,圍繞人工智慧和技術倫理的現實交集闡發激烈討論。
我們特別邀請了中國科學院自動化研究所研究員、複雜系統管理與控制國家重點實驗室主任王飛躍,北京郵電大學人機互動與認知工程實驗室主任劉偉,中國社會科學院科學技術和社會研究中心主任段偉文,中國人民大學哲學院教授、博士生導師劉永謀以及騰訊公司傑出科學家張正友碰撞哲思,著名網際網路專家、葦草智酷創始合伙人段永朝先生擔任本場論壇主持。
從坐到右:段永朝、王飛躍、劉偉、段偉文、劉永謀、張正友
智能時代的新哲學
段永朝在致辭中談到,科技和善惡的關係正是一把雙刃劍,如何再往前深入探討,正是本次分論壇的題眼所在。
對此,王飛躍認為,雖說是雙刃劍,但總歸是在朝更好的方向發展。「經歷前兩個軸心時代的人性大覺醒和理性大覺醒後,人類將迎來第三軸心時代的智性(Intelligence)大覺醒。」
交互是人類的天性。虛實之間永恆的交互的過程是最實實在在的。人工智慧將帶給人類穿越虛擬世界與現實世界的接口和橋樑,讓人類實現虛實結合虛實融合,實現「在虛擬世界吃一塹吃多塹,在物理(現實)世界長一智」。
而預測未來最好的方式是創造,通過實與虛兩個世界的平行秩序、平行學習創造未來。新的時代新的哲學,也就是「平行的哲學」,其中關鍵在於人工引導(Prescriptive Knowledge)。
蜘蛛俠《平行宇宙》
「技術-倫理」的改進機制
究竟如何通過技術-倫理復合創新克服創新與倫理的衝突?
段偉文以「有針對性的『技術-倫理』改進」作為破題之解。他表示,要藉助改進機制落實對社會計算的倫理治理,在此過程中需要通過人文學者與科技專家的對話,以實現價值訴求與技術需求之間的「轉譯」。
「所以未來,人類和機器都要相互理解對方的缺陷,並進行協同進化,這樣才能分擔責任。」段偉文如此描述「人機未來的二象性」。
科技向善的企業擔當
在後續的圓桌討論環節,集中在企業如何選擇「科技向善」。
劉偉期待,未來能夠實現人的價值性、主觀性和機器的客觀性、事實性相互統一,達到休謨之問所提出的「Being與Should」的一致性,從形式到內容相得益彰,取長補短,「這也許是強人工智慧的發展方向之一」。
張正友認為技術作為一個工具,需要思考的是人或者企業到底怎麼去用這個工具。騰訊將科技向善作為企業的願景和使命,他相信是希望真正用科技幫助人類,讓人類獲得更大的幸福。
他表示,現在人工智慧能做的事情是把知識轉換成另外一種知識,其實還沒有到真正的智能。真正的智能應該是超越知識,能夠在不確定的情況下知道怎麼去解決問題。他希望當前不要給大眾造成很多技術的恐慌,這種恐慌會造成整個社會對新的技術、人工智慧,以及對平行世界的探索造成壓力。
因為人工智慧還需要繼續往前推進。面對當前確實存在的一些問題,他認為確實一些技術並沒有用在好的地方,但大企業應該想辦法負起責任來,推動國家、社會繼續投入人工智慧繼續往前走。「比如騰訊是非常重視用戶的隱私保護」,他說。
段偉文還補充道,企業不僅要對員工和用戶負責,還要對社會負責,要在更大的範圍內考慮相關的利益群體。「人機問題本質還是人和人的問題,機只是中介。」
劉永謀認為,在AI發展的新無知之幕下,技術的實體論或工具論問題本質上是選擇問題,並且選擇就意味著付出相應代價。「向善是不舒服的,但騰訊作出了正確的選擇。」