國家治理 | 以法治化解生成式人工智慧風險

2023-08-30     社會科學報

原標題:國家治理 | 以法治化解生成式人工智慧風險

國家治理 | 以法治化解生成式人工智慧風險

國家治理

以ChatGPT為代表的生成式人工智慧擁有高精參數、海量數據、超強算力、極致調優等技術性能。這種自我學習和自我疊代的技術性能給監管部門提出了前所未有的挑戰。如何促進生成式人工智慧的健康發展和規範應用,化解生成式人工智慧的高危風險和安全隱患已然成為當前迫切需要解決的問題。黨的二十大報告明確指出:「防範化解重大風險,保持社會大局穩定」,是全面推進黨的建設新的偉大工程的重要內容。因此,必須充分發揮法治的保障作用,規範生成式人工智慧產品的應用風險,以確保其在正確的軌道上為人類的生產和生活服務。

原文 :《以法治化解生成式人工智慧風險》

作者 |重慶郵電大學網絡空間安全與信息法學院副教授 徐偉

圖片 |網絡

生成式人工智慧的法律風險

淪為犯罪工具的風險

由於科技的快速疊代和迅猛升級,規制生成式人工智慧的法律規範存在嚴重的滯後性。雖然生成式人工智慧在設計上已充分考慮對違法問題的直接拒絕功能,但是變通問法的違法問題仍然可以避開這一技術設計,並使生成式人工智慧淪為犯罪工具。實踐中,生成式人工智慧通常在兩種情況下會被用於犯罪。第一種,利用生成式人工智慧自動生成文本、圖片、視頻,並用於網絡炒作、惡意發帖攻擊、淫穢物品傳播等一般犯罪;第二種,利用生成式人工智慧組建釣魚網站、製作惡意軟體、升級加密功能,並實施顛覆國家政權、煽動國家分裂、發動恐怖襲擊等危害國家安全的嚴重犯罪。

損害道德倫理的風險

生成式人工智慧的技術原理,是基於輸入者提供的文本語言、選擇的強化算法,以及系統設計者強加的價值觀念等多方面的因素綜合輸出。這些輸出內容看似客觀中立,實則藏匿主觀偏見,面臨道德淪喪的風險。首先,以輸入者為中心,選擇文本語言、數據算法本身就意味著輸出內容的主觀偏見性。在這種主觀偏見性的主導下,經由生成式人工智慧輸出的內容極有可能違背社會主義核心價值觀,違反公序良俗。其次,公眾基於生成式人工智慧輸出的偏見內容,做出錯誤決策,引發道德危機。最後,過度依賴生成式人工智慧,必然動搖人類主體地位。

侵害智慧財產權的風險

生成式人工智慧的訓練數據主要源於網際網路資料庫,其中不乏原創作品,有侵犯智慧財產權的高危風險。具體而言,生成式人工智慧在回復用戶時可能過度借鑑、模仿或抄襲他人作品,導致輸出的次生作品中殘留原創作品的內容。此外,受利益驅動的用戶會頻繁使用殘留原創作品的輸出內容,會衍生疊加侵權,並由此加大智慧財產權的保護難度。

傳播虛假信息的風險

生成式人工智慧具有跨領域的知識遷移能力,可生成邏輯性極強的對話文本。在這一生成過程中,倘若用於生成式人工智慧的訓練數據未經實質篩查和嚴格過濾,則可能混入虛假數據和錯誤數據,進而導致輸出內容的虛假性,傳播虛假信息風險由此劇增。如利用虛假信息吸引流量、增加廣告收入、操縱股票市場等。根據中國信息通信研究院和京東探索研究院發布的《人工智慧生成內容(AIGC)白皮書(2022年)》明確表示,機器學習後生成的內容變得愈發「專業」,甚至能夠以假亂真。更為嚴重的是,一些用戶堅信生成式人工智慧輸出內容的準確性並視其為權威,由此導致惡性後果。

泄露隱私數據的風險

生成式人工智慧具有自動收集用戶個人信息、隱私數據和商業機密的功能,並將其作為訓練數據進行反覆學習,以便提高輸出質量。如果生成式人工智慧在輸出時參考了這些隱私數據,就有侵害公民私權、危害國家安全的數據泄露風險。正如中國支付清算協會發布的倡議書所稱,像ChatGPT這樣的智能化工具已經出現了跨境數據泄露風險。這些隱私數據泄露包括個人信息泄露、商業秘密泄露、國家秘密泄露等。例如,三星電子引入ChatGPT不到20天就爆出晶片機密泄露事件。

生成式人工智慧風險的法治化治理路徑

完善面向生成式人工智慧的法律法規

一是適應中國國情,制定管控生成式人工智慧技術應用領域的法律法規。立法機關應及時出台相關法律法規,明確生成式人工智慧的責任主體和擔責方式,以凸顯數據安全和智慧財產權保護,並著力推動生成式人工智慧的市場規範化,保證生成式人工智慧的良性發展。二是聯袂相關法律法規,及時應對生成式人工智慧的未知風險。《生成式人工智慧服務管理辦法》目前正處於徵求意見階段,在正式公布生效前,應充分利用現有法律制度及時應對生成式人工智慧的未知風險。例如,可以結合《網絡安全法》《數據安全法》《網絡信息內容生態治理規定》《網際網路信息服務算法推薦管理規定》等專門領域法律法規,以及《民法典》《個人信息保護法》等普適法律法規,全面保障公民權益,解決突出問題。

構建生成式人工智慧全過程監管機制

加強對生成式人工智慧產品全生命周期的監管至關重要。從算法設計、模型生成、訓練數據選擇,到投放市場後的疊代升級和市場退出等環節,均應受到嚴格監管。具體應採取以下監管措施。一是事前監管。建立市場准入清單,嚴格審查生成式人工智慧訓練數據的真實性、客觀性、準確性,明確生成式人工智慧的安全評估和算法備案制度,多角度增強生成式人工智慧的安全性、可解釋性和可追責性。二是事中監管。建立生成式人工智慧投訴舉報的專屬通道,完善生成式人工智慧的投訴舉報機制。明確政府主動審查和用戶舉報相結合的監管方式,全方位保障生成式人工智慧的監管質量和監管力度。三是事後監管。嚴密生成式人工智慧的事後懲罰措施,約談違反生成式人工智慧法律規定的研發公司和責任人並責令整改。對違反行政法規的,予以行政懲罰;構成犯罪的,追究刑事責任。此外,聯袂行業協會,健全生成式人工智慧行業自律機制,強化行業監管。

聚焦生成式人工智慧生成內容的治理

生成式人工智慧存在的高危法律風險,主要源於生成內容的謬誤性。因此,如何確保生成式人工智慧輸出內容的準確性至關重要。具體可採取如下措施。一是結合技術和人工審核方式,加強對違法內容的檢測和過濾。政府和生成式人工智慧研發公司應共同努力,加速建設自檢測模型,積極增強風險提示功能。同時,設立人工審核機制,從源頭上杜絕違法內容的生成。二是建立生成內容的質疑和闢謠機制。這一機制應立足提示功能,旨在實現虛假數據、錯誤信息和違法內容的及時標記,以便於提醒後續用戶。三是積極推進生成式人工智慧產品的研發和推廣,建立生成內容的識別機制,促進智慧財產權的動態保護。政府應重點支持有關識別生成內容的技術研發,並制定相關政策和法律予以保駕護航。積極鼓勵相關企業和機構在生成式人工智慧的產品研發、技術創新、市場推廣等方面進行深度合作,共同推進生成式人工智慧識別技術的應用和發展。

提高研發公司和用戶的「合規」意識

一是加強生成式人工智慧研發公司的合規意識。首先,應推動數據合規,保證數據來源的合法性,加強對數據主體權益的保護。具體而言,應及時徵得相關用戶同意,公開信息數據來源,確保訓練數據不含有侵犯他人智慧財產權的內容。其次,應落實安全管理義務,防止用戶隱私、商業秘密泄露。生成式人工智慧公司應加強對研發人員和使用客戶的管理,嚴格用戶輸入數據和輸出結果的審核。同時,健全不良信息審查、過濾、即時處置機制,完善鑒偽和闢謠機制。明確禁止非法留存能夠推斷用戶身份的信息。二是提高用戶法律意識和防範能力。首先,監管機關和生成式人工智慧公司應提醒用戶在使用生成式人工智慧時避免輸入涉及他人隱私、個人信息、商業秘密和國家秘密的內容。其次,用戶在使用生成式人工智慧生成的文本數據時,應儘量保持「借鑑性」使用,避免「複製性」使用,並確保使用內容符合相關法律法規要求。

文章為社會科學報「思想工坊」融媒體原創出品,原載於社會科學報第1866期第3版,未經允許禁止轉載,文中內容僅代表作者觀點,不代表本報立場。

本期責編:王立堯

拓展閱讀

人才強國 | 人工智慧時代職業技能疊代向何處去

生成式人工智慧來了,如何保護未成年人?| 社會科學報

文章來源: https://twgreatdaily.com/zh-tw/611661bdf58e9197b0b20666de4412b7.html