9月18日晚消息,圖靈獎得主Yoshua Bengio(約書亞·本吉奧),圖靈獎得主、清華大學人工智慧國際治理研究院學術委員會主席姚期智教授,清華大學講席教授、人工智慧國際治理研究院學術委員張亞勤、加州大學伯克利分校教授、清華大學人工智慧國際治理研究院學術委員Stuart Russell(斯圖爾特·羅素)等多位計算機科學領域的領軍人物於9月5日至8日,出席了由AI安全國際論壇(Safe AI Forum)和博古睿研究院共同舉辦的第三屆國際AI安全對話(International Dialogues on AI Safety)。
在為期三天的會議中,與會科學家們共同達成了一份具有重要意義的共識聲明,其核心觀點強調了AI安全作為「全球公共產品」的重要性,建議各國應將AI安全納入學術與技術合作的核心領域。
為了應對可能到來的由高級人工智慧系統引發的災難性風險,科學家呼籲,國際社會應考慮啟動以下三項工作程序:
應急準備協議與制度:通過這一機制,各國的安全監管部門可召集會議,合作制定並承諾實施模型註冊和披露制度、事故報告機制、預警觸發點及應急預案。
安全保障體系:當模型的能力超過特定閾值時,要求開發者為模型的安全性提供高度可信的論證。對於高性能的人工智慧系統,隨著它們的廣泛應用,部署後的監控也將成為保障體系的關鍵組成部分。這些安全保障措施應接受獨立審計。
全球人工智慧安全和驗證的獨立研究:應通過技術開發,使各國能夠確認開發者以及其他國家提出的與人工智慧安全相關的聲明是真實有效的。為了確保研究的獨立性,這項研究應在全球範圍內進行,並由多個國家的政府和慈善機構共同資助。
半年前,包括圖靈獎得主Yoshua Bengio、Geoffrey Hinton(傑弗里·辛頓)、姚期智等在內的數十位的中外專家於3月18日在北京聯合簽署了由智源研究院發起的《北京AI安全國際共識》,涉及人工智慧「風險紅線」和「路線」兩大塊,其中「風險紅線包含自主複製、改進」,「權力尋求」、「協助不良行為者」和「欺騙」四個部分。
去年3月,包括特斯拉執行長Elon Musk(埃隆·馬斯克)、Yoshua Bengio在內的上千位人工智慧專家和行業高管在一封公開信中,呼籲暫停訓練比新推出的GPT-4模型更強大的人工智慧系統至少6個月,理由是人工智慧將對社會和人類構成潛在風險。
文章來源: https://twgreatdaily.com/5918b2292666c652d1a16f36e13947d5.html