「單作」算法也會「引火上身」!AI發展超速,人類跟不上節拍怎麼辦?

2024-10-26     文匯報

人工智慧(AI)為人類社會按下了加速鍵。新研究、新技術、新產品,方方面面都在飛速更新。然而,假如AI發展過快,人類跟不上節拍怎麼辦?

10月26日舉行的2024年世界頂尖科學家論壇智能科學大會上,國內外專家學者圍繞「為人類永續發展制定科學的AI治理框架」發表真知灼見。其中有一種聲音格外令人警醒,那就是:人類把人工智慧帶到這個已知的世界,但決不能讓人工智慧把人類引向無法掌控的未知世界,否則後果不堪設想。

構建AI驅動的科研基礎設施

學術研究的深入,將人工智慧不斷推向新的高度,而層出不窮的人工智慧工具,也正推動科學研究不斷邁上新台階。

中國科學院院士、北京科學智能研究院院長、北京大學國際機器學習研究中心主任鄂維南指出,在傳統科學研究中,理論建模與模擬的一大難處在於「維數災難」,即在高維度數據空間中,數據分析和處理將變得異常艱難。而今,深度學習技術提供了解決辦法。比如,研究人員可以對包含數十億個原子的系統進行具有量子力學精度的分子動力學模擬。這項成果讓鄂維南在2020年榮獲素有「超算界諾貝爾獎」之稱的美國計算機協會ACM戈登貝爾獎。

中國科學院院士、北京科學智能研究院院長、北京大學國際機器學習研究中心主任鄂維南

鄂維南表示,科研所需的三大基本方法或資源是理論、實驗和科學文獻。人工智慧的興起,在這三方面引起了天翻地覆的改變,科學研究的方式也隨之疊代。大語言模型和AI資料庫的出現使研究人員能夠更高效、更智慧地運用現成的知識;分子動力學、量子多體、密度泛函理論等重要理論工具的背後,是基於AI的算法;而智能化的下一代實驗設備將大幅提升數據收集的效率和精度。

鄂維南說,我們正在經歷一場科研範式變革,基於人工智慧的一系列工具將顛覆傳統科研模式。為此,我們需要準備好「AI驅動的基礎設施」,需要將「作坊式」的科研模式切換到「安卓式」,即開發一些大平台,以平台為基礎,針對具體問題搭建應用,並針對具體的應用場景構建垂直整合的團隊。

科研領域的範式變革正在不斷轉化為成果。本屆智能科學大會圍繞智能科學前沿應用領域首次推出「科技創新卓越案例研討」,探討數字化與AI公司及機構的創新案例。

會上,賽諾菲高級副總裁、臨床科學與運營全球負責人萊昂內爾·巴斯克萊斯介紹,AI已經在疾病生物學、藥物研發、臨床試驗等各環節開始賦能。比如公司將AI與自動化結合,加速小分子藥物的發現;開發mRNA大語言模型CodonBERT,以千萬mRNA序列為訓練數據,用於mRNA疫苗候選的表達預測;開發生成式AI系統,用於生成臨床研究報告,大幅提升效率,縮短藥品研發周期。

英矽智能也帶來了一款名為PreciousGPT的大語言模型。公司創始人兼執行長亞歷克斯·扎沃隆科夫表示,這款模型可用於產生對生物系統有一定影響的化合物、模擬臨床研究、生成合成患者、對組學實驗的結果作注釋,以及將化合物特性類推到新領域。

算法設計不能一味「爭強」

人工智慧引領的這場輻射全社會、影響各行業的變革,也引起了不少專家學者的警惕。

2007年圖靈獎得主、國際嵌入式系統研究中心Verimag實驗室名譽研究主任、南方科技大學斯發基斯可信自主系統研究院院長約瑟夫·斯發基斯,談到了AI系統的風險評估與管控。他認為,人工智慧的風險有兩種:技術風險與人為風險。前者包括算法需求的不完整性、算法設計的缺陷,以及算法部署時可能面臨的外部環境威脅。後者又細分為兩種,客戶或投資方對AI系統提出的目標或需求可能不合法或不道德,用戶也可能將系統用於歪門邪道。

對此,斯發基斯主張,應針對算法設計者和使用者的人為風險以及算法設計部署階段的技術風險,分別制定相應對策。

2007年圖靈獎得主、國際嵌入式系統研究中心Verimag實驗室名譽研究主任、南方科技大學斯發基斯可信自主系統研究院院長約瑟夫·斯發基斯

他認為,人類尚不可以對人工智慧報以百分百的信任,因為除了技術特性外,AI系統還具有「主觀特性」,所以需要向人類的價值觀對齊,具備公平性、可靠性、安全性、隱私性、包容性、透明性等特徵。然而,由於目前並沒有針對此類特性的嚴格認證方法,所以難以全面嚴謹地評估AI風險。

2024頂科協獎「智能科學獎」得主、康奈爾大學計算機科學和信息科學講席教授喬恩·克萊因伯格指出,當前人工智慧發展存在三個風險點:一是人類自身的排外偏見會導致算法與生俱來的偏見,進而引發人類社會的一系列混亂。

二是受到經濟激勵的影響,人們在設計算法時容易陷入「單作」的狀態。這個概念借用自農業。假如一片農田為了經濟效益而只種植一種作物,那麼只需一種病原體就能消滅一整片農田。同樣的,「單作」算法也會「引火上身」,讓惡意軟體更加有的放矢。當外在條件或宏觀環境發生變化時,「單作」算法還可能觸發多米諾骨牌效應,引起連鎖性災難。

2024頂科協獎「智能科學獎」得主、康奈爾大學計算機科學和信息科學講席教授喬恩·克萊因伯格

三是人類在面對超越人類的AI系統時,認知上的落後會帶來麻煩。在和此類AI系統開展合作時,控制權往往不在人類自己手裡。但假如人工智慧突然把控制權交了出來,那麼人類就可能犯下嚴重錯誤,因為AI知道該怎麼做,而人類未必。

所以克萊因伯格認為,在設計時既要追求算法的強大,也要注意,萬一到了不得不由人類掌控局面的時候,事態不能發展到失控的地步。

作者:孫欣祺

文:孫欣祺 圖:邢千里 攝 編輯:孫欣祺 責任編輯:任荃

轉載此文請註明出處。

文章來源: https://twgreatdaily.com/zh/8d56a09b4735364e7c0ae01d50e80fa5.html