數字化 | 新技術會讓個體身份「消融」
▋數字化
植根於賽博空間的深度偽造技術被作為電信網絡詐騙的犯罪工具,織構出一個交錯著技術、生物、文化等多個維度的人的關聯性特徵的「身份」系統,復刻出虛假的熟人「主體」,而真正的個性化「身份」卻被逐至虛構事件之外。
原文:新技術會讓個體身份「消融」
作者 | 西南政法大學刑事偵查學院副教授 謝 玲
圖片 |網絡
在初級人工智慧社會,AI新技術的無邊界使用必然引發技術對社會機體的侵害。「技術+話術」的電信網絡詐騙騙術就被當下最新的AI新技術所裹挾,發生隱形變異、翻新升級,語音克隆詐騙和AI換臉詐騙成為目前最危險的侵財類犯罪形態。該類騙術嵌入深度偽造技術,虛實「合體」、真假「同一」,從源頭到末梢徹底改變了傳統電信網絡詐騙的線上「偽裝」交互模式,短暫地消除了個體的差異性特質,呈現出更加複雜、多變、隱蔽的特徵,對電信網絡詐騙的防範治理能力和水平提出更高要求。
語音克隆和AI換臉:模糊身份的對應
語音克隆詐騙和AI換臉詐騙是利用深度偽造技術實施的冒熟類新型電信網絡詐騙。其原理是利用計算機神經網絡技術和AI機器大樣本學習,在獲取潛在被害人熟人的語音片段、照片等樣本材料後,將其語音、面部表情、身體動作拼接合成虛假的語音和人臉照片、視頻,通過撥打電話和視頻聊天的方式與被害人發生通聯,冒充熟人取得被害人信任以騙取錢財。新型詐騙騙術的本質是一種技術篡改,其關鍵環節是通過視覺、聽覺等方面的模仿和修改,實現通話、錄音、圖像、視頻、直播等多種形式的語音替代和面部交換。聲音和形象等原本專屬於個體的生物特徵經過深度偽造技術的「移花接木」被完整複製到仿冒身份者身上,潛在被害人通過肉眼難辨真偽,對「耳聽」「眼觀」調動自身感官所認可的「身份」深信不疑,因而被仿冒的「熟人」利用詐騙話術趁機取財。
在國內某實案中,境外詐騙團伙通過黑灰產購買、打騷擾電話等方式獲取被害人朋友的圖片、視頻、聲音等重要個人信息,在盜取其微信號之後,使用AI換臉技術與被害人進行微信視頻聊天,向其借錢。由於聲音和面部與朋友一模一樣,被害人因相信其「身份」而被騙,向其提供的銀行帳戶轉帳四百餘萬元。
AI換臉詐騙出現之後,一些防騙提示針對AI換臉需利用他人正面照片進行機器訓練合成假臉的技術特點,提出了甄別視頻內容真假的方法。例如,觀察對方能否眨眼,誘導對方用肢體干擾面部露出端倪。然而,為了進一步達到以假亂真的效果,模糊身份的對應性,針對防範措施設計的新的技術要素被整合到AI換臉騙術中,即使潛在被害人誘導身份仿冒者做出各種身體搖晃或面部遮擋動作,也不會暴露其真實的面部形象。由此可見,隨著更多開放開源的深度偽造技術被運用於詐騙騙術,冒熟類詐騙會有更多新的變化,此類詐騙的事前防範具有相當難度。
多維度的交錯復刻:真實身份的逐出
表面上看,語音克隆模擬的是人的「聲音」,AI換臉篡改的是人的「臉面」,實際上卻是對代表著個體唯一性的「身份」的侵犯。「身份」不僅是自我的象徵,也是社會化的標識,是用於識別差異性的個體最重要的主體特徵集合。在人類社會中,對於他人的身份,人們只能作為對象的「他者」予以直觀,而不能冒用和頂替。這是因為:第一,「身份」產生於特定的時空中,專屬於某人的日常生活環境和經歷是個體的「具身」所在,這是時空屬性上的不可侵犯。第二,「身份」是與具有人身專屬性的人的若干生物特徵綁定在一起的,這是生物屬性上的不可侵犯。第三,「身份」不僅是物質的,也是精神的,個體心理決定了他人在大多數時候難以接受和無法徹底理解有別於自己的另一個「身份」背後的主體,這是精神屬性上的不可侵犯。
然而,在人工智慧社會和賽博空間裡,關於個體化存在的固有認知被賦予了更多的可能性。首先被打破的是「身份」的時空屬性,非接觸式犯罪總是發生在參與者所構想和認同的地理空間和歷史時間中,足夠細節化的描述能夠掩蓋實存的時空「憑據」;接續被突破的是「身份」的生物屬性,AI技術的濫用繞開了個體對自身「唯一」的生物特徵的統攝關係,被完整複製的特徵集合從唯一性的個體中自由釋放,成為一個被完全復刻的「主體」;最後被消解的是「身份」的精神屬性,冒熟「身份」背後的詐騙犯罪人加上以自然邏輯為機器邏輯的AI,以及虛假的環境和情境,可以重組一個身份被冒充者的慣常思維繫統,詐騙分子抓住其主體性的既定特徵和思維屬性,在特定的時間內向潛在被害人展示他所熟悉的這一「身份」,為了增強說服力和證明力,隨時可以通過人機互動和面部交換擴展性地滿足潛在被害人對熟人「身份」進行感官探知的需要。通過這「三重」破解術,植根於賽博空間的深度偽造技術被作為電信網絡詐騙的犯罪工具,織構出一個交錯著技術、生物、文化等多個維度的人的關聯性特徵的「身份」系統,復刻出虛假的熟人「主體」,而真正的個性化「身份」卻被逐至虛構事件之外。
新技術具有複雜的道德意蘊
深度偽造技術促成了潛在被害人錯誤的社會認知與信息決策,技術對於新型犯罪既遂的重大影響和作用不僅是充當了被犯罪所利用的工具,還是與之深度結合且渾然一體。按照技術工具論的視角,語音克隆和AI換臉技術是被不法分子利用作為實現非法目的的犯罪工具或手段,它們本身是中性且無害的,應受譴責和規制的是使用工具的違法犯罪主體。然而,深度偽造技術作為一種人工產物,與刀、槍、毒藥、爆炸物等在具體案件中成為侵害工具的「物」不同,新型技術被濫用所產生的後果更加難以預料,不僅是技術具有不斷升級和演變的可能性,還在於它能促成未來更多新型犯罪行為的塑形,產生難以估量和控制的使用風險,因為新技術能夠被用於個體身份的「消融」。
人作為社會的基本單元,身份認同的取消和角色替換將會使每一名社會成員產生自我迷失的焦慮,社會職責、人際信任和個體歸屬更是無從談起,整個社會的正常秩序可能受到嚴重衝擊。所以,要將技術的責任從工具的中性價值中剝離,反而不利於釐清技術所具有的複雜的道德相關性及其作用。實際上,承認技術的使用者具有決定行為性質的主觀能動性並不能替代新技術本身所蘊含的道德調節能力。換句話說,新技術也具有複雜的道德意蘊,在其充當工具的過程中,所引起的風險事件本身的道德性、不法性被分散到了作為使用者的「人」與作為工具的「非人」之中。雖然不能直接表述作為客體的深度偽造技術具有人特有的道德性,但它具有道德相關性的面向,這體現在語音克隆和AI換臉更容易淪為犯罪技術,產生令個體身份逸失和混同、社會秩序紊亂的消極作用上,並且這種新技術的道德意向性無須分辨,從其直接導致的嚴重問題就能觀察到它的性質本身就隱藏著巨大的風險。
在針對新技術濫用的信息安全技術屏障建立起來之前,應當嚴格規制這一類高風險新技術的聯網應用,以防止潛在被害人與新技術交互時,在尚未對詐騙話術的「心理控制」和「洗腦」產生適應性或排斥性時,就受到被篡改的虛假身份的「蠱惑」而做出瞬時響應。這會導致電信網絡詐騙公安預警機制和反「洗腦」策略完全失去發揮作用的時機。總之,技術策略只有能夠被調試到最大限度降低新技術生成虛假信息所帶來的社會風險,制度保障能夠充分守護人民群眾的個體「身份」安全,才能證明新技術的道德相關性更加傾向於促進犯罪防範的目的,而不是成為易於犯罪的手段,高風險新技術必須要在成熟的風險控制機制的支持下才能得以廣泛適用。
文章為社會科學報「思想工坊」融媒體原創出品,原載於社會科學報第1865期第6版,未經允許禁止轉載,文中內容僅代表作者觀點,不代表本報立場。
本期責編:宋獻琪
拓展閱讀
數字化 | 大語言模型需要克服諸多關鍵問題
人與機 | 記憶、知識與生命節奏