人工智慧學會「坑蒙拐騙」,探討「投喂」邊界正當其時

2024-10-30     中工網

原標題:人工智慧學會「坑蒙拐騙」,探討「投喂」邊界正當其時

吳迪

近日,一些短視頻平台湧現了大量某知名企業家吐槽的視頻。在視頻中,該企業家對堵車、調休、遊戲等熱門話題進行調侃,甚至還有不雅詞彙穿插其間,引發熱議。事實上,這是由網友利用AI軟體採集該企業家原音生成的配音,但逼真的效果讓不少人信以為真。(見10月28日《工人日報》)

AI生成信息從「一眼假」到「深度偽造」,僅僅過了幾年時間。幾年前,網絡上流行上傳個人照片生成各類主題海報或視頻的遊戲,令人們對AI融入生活抱有了更多期待。比如,通過AI換臉實現的「螞蟻呀嘿」搞笑視頻,曾一度霸榜熱搜。同時,AI技術應用於天氣預報、新聞播報、醫療、手機地圖等領域,讓生活更加便利。然而,也產生了一些新的問題。有人用自己的照片與某女星素材合成親密視頻,引發爭議;某知名辦公軟體將用戶文檔用作AI訓練文本,引發反對聲浪;還有一些人的聲音、人臉被AI學習,生成虛假信息用於電信詐騙、造謠……

AI為人們提供新體驗的同時,伴隨的風險成本越來越高,不僅侵犯了一些人的合法權益,也擾亂了網絡空間秩序。比如,AI生成音頻技術的濫用可能侵犯個人的人格權。自然人的聲音具有唯一性、獨特性,是自然人人格的重要組成部分。今年4月,北京網際網路法院宣判的全國首例AI生成聲音侵權案,判決侵權方賠償原告25萬元。又如,AI生成的虛假音視頻很容易引發誤解,甚至造成惡劣影響,破壞網絡信息的可信度和網絡空間的秩序。今年9月,網上流傳某網絡平台負責人的負面「酒後」音頻,給該平台招致風波,結果警方調查發現,音頻內容系AI偽造。

規範AI技術發展是公眾的共同呼聲。為此,社會各界提出建議,如完善法律法規,明確AI生成技術的使用範圍,加大對濫用AI技術的打擊和處罰;技術研發應用者要在識別和過濾虛假內容上有所作為,建立有效的甄別、審核機制,防止技術被濫用,等等。

這些「追著AI跑」的規範手段必不可少,但從AI生成內容的邏輯看,還需從前端發力,即在「投喂」素材訓練AI大模型環節做好必要的規制。AI自主學習需要有大量的「學習對象」作為基礎,包括聲音、文字、語法、圖像、熱力分布等,這些素材越豐富,AI就「吃」得越飽,生成的內容就越自然逼真。當前,網友使用AI軟體上傳聲音、人臉等個人生物信息時,幾乎是不設防狀態。此外,AI在獲取訓練素材時還缺乏一定的規範,比如用戶為一次娛樂活動而上傳的素材能不能被儲存和多次利用?相關信息該如何使用?都應有明確的說法。

以手機APP過度索權為例,近年來,很多APP開發運營者為了獲取更豐富的用戶數據,後台過度索權問題飽受詬病。2021年初,工信部出台文件,明確了「知情同意」和「最小必要」兩項個人信息保護基本原則,要求從事APP個人信息處理活動,應當由用戶作出自願、明確的意思表示,同時不得從事超出用戶同意範圍或者與服務場景無關的個人信息處理活動。同理,AI自主學習也應被劃定明確、具體的邊界範圍。比如,用戶上傳的信息將被用於什麼用途、如何儲存及使用,要有類似「知情同意」「最小必要」的規定。

簡言之,從源頭「投喂」素材的環節做到丁是丁卯是卯,AI自主學習及應用才會更加向上向善。眼下,AI技術發展如火如荼,未來充滿無限機遇和可能。正因如此,技術別被玩壞、信任別被玩丟,與技術本身的發展同等重要。

來源:中工網-工人日報

文章來源: https://twgreatdaily.com/549f141de803e01e9c2308aa6abce401.html