人工智慧帶來的負面效應:讓科技公司頭疼的deepfake「換臉術」

2019-08-28     瘋狂的程序猿

如何解決deepfake這樣的問題?隨著新工具的出現,從科技公司到政界人士,每個人都不得不問這個問題。這些工具越來越容易使用,可以製作人工智慧操縱的視頻,在視頻中,人們的相貌被以曾經無法想像的方式重新利用。

這些視頻有時是為了諷刺,有時是為了黑色喜劇。今年早些時候,deepfake的一段視頻顯示,執行長馬克•扎克伯格(Mark Zuckerberg)興高采烈地吹噓自己擁有用戶數據的所有權。喬丹·皮爾(Jordan Peele)以口頭語傳唱了一則關於假新聞的廣告,其中描述了巴拉克·歐巴馬(Barack Obama)稱他的總統繼任者是「徹頭徹尾的混蛋」。「隨著2020年總統大選的臨近,人們比以往任何時候都更擔心deepfake會被濫用,幫助傳播謠言。

「我認為人們應該深切關注deepfake技術,」歐盟夏爾巴人項目(SHERPA project)的參與者、三方研究主管戴維•賴特(David Wright)對Digital Trends表示。該項目關注的是人工智慧的道德使用。「它將繼續進化,變得更加難以區分什麼是真實的,什麼不是。色情網站將繼續利用deepfake技術來利用名人的聲音和圖像。網絡犯罪團伙將不可避免地使用deepfake技術進行極其複雜的魚叉式網絡釣魚。我們可以期待右翼政客和他們的追隨者利用它來欺騙選民,破壞他們對手的聲譽。他們將受到干涉選舉進程的外國勢力的幫助和教唆。」

最近,民主黨眾議員亞當·希夫(Adam Schiff)詢問Facebook、Twitter和谷歌,他們計劃如何打擊包括deepfake在內的篡改視頻和圖片的傳播。這三個人都說他們正在解決這個問題。但是這個問題有可能解決嗎?

追捕deepfakes

幸運的是,deepfake的傳播並不是孤立發生的。隨著這些工具的改進和普及,也有研究人員在研究這個問題的另一面。這些研究人員正在開發一種方法,通過這種方法,人工智慧技術可以幫助識別deepfake,而且精確度很高。在德雷克塞爾大學,多媒體和信息安全實驗室的一組研究人員最近開發了一種深度神經網絡,它可以以很高的精度發現被操縱的圖像。其他大學也開發了類似的工具,比如德國慕尼黑工業大學。

「以目前deepfake新技術的生產速度,法醫研究人員幾乎不可能跟上。」

然而,這些工具還沒有完全為黃金時間做好準備——正如德雷克塞爾大學deepfake finder的研究人員之一布萊恩·霍斯勒欣然承認的那樣。霍斯勒說:「在我們所看到的探測器中,很多都非常精確,但是只有在特定的假設條件下才能工作。」「任何與這些假設不同的地方,比如使用不同的deepfake軟體,或者改變視頻的縱橫比,都有可能削弱探測器。」

一個主要問題是,當前的假設圍繞著用於創建deepfake的軟體留下的工件。這些怪癖,一個精明的人現在可能能注意到,如不一致的眨眼或奇怪的嘴唇運動;這些元素透露出最終的視頻位於恐怖谷的某個地方。

但deepfake的技術一直在進步,這意味著像deepfake早期那些漂浮的頭部這樣的視覺異常(記住,那只是幾年前的事)已經基本上得到了修復。雖然仍然有一些視覺標記,比如奇怪的面部深度和扭曲的運動模糊,當一張臉移動得太快時,這些東西可能不會被你的普通觀眾發現。如果你的普通觀眾已經習慣了在線上多變的圖像質量,卻沒有理由相信他們正在觀看的內容可能是偽造的,那就更是如此。

霍斯勒繼續說:「以目前deepfake新技術的生產速度,法醫研究人員幾乎不可能跟上步伐。」「製作廣泛應用和可靠的deepfake檢測器的最大障礙在於視頻本身的一致性。Deepfakes最初是一個在線社區和一個特定軟體的名稱,但現在指的是任何人工智慧-生成或編輯視頻。製作這些視頻的方法千差萬別,很難進行可靠的檢測。」

即使是像對現有視頻進行重新壓縮這樣的事情,也足以掩蓋探測器用來發現deepfake的痕跡。對於使用最廣泛的視頻分發平台來說,這是一個特別的問題,這些平台會重新壓縮上傳的圖像和視頻,以節省文件大小。因此,這些新壓縮的文件經常引入額外的視頻構件,這些構件覆蓋了deepfake檢測器用作線索的那些構件。

如何部署它們

但是開發正確的探測器只是問題的一部分。更棘手的問題是,一旦這些工具強大到可以使用,如何部署它們。現在,似乎沒有人知道答案。雖然從技術上講,禁止deepfake是可行的,但沒有多大意義。禁止用於圖像編輯的軟體,因為它可能被用於邪惡的目的,這有點像試圖禁止鍵盤,因為有人在網際網路上寫了一些骯髒的評論。

「如果社交媒體和科技公司能夠自動掃描上傳到它們網站上的每一個視頻,那就太好了……」

在最近一封日期為7月31日的信中,Twitter的公共政策和慈善事務主管卡洛斯?Monje寫道:「如果我們意識到使用deepfake傳播虛假信息違反了我們的選舉誠信政策,我們將刪除這些內容。」

要實現這一目標,有兩個挑戰。第一個是主觀的,它區分了那些旨在傳播錯誤信息的內容和為諷刺而製作的內容。2012年YouTube上的一段流行視頻顯示,巴拉克•歐巴馬(Barack Obama)演唱了卡莉•雷•傑普森(Carly Rae Jepsen)的熱門單曲《Call Me Maybe》。該視頻由數百個歐巴馬單獨講話的微剪輯剪輯而成。在撰寫本文時,該視頻的瀏覽量已超過5000萬次。與此同時,最近的一段被篡改的視頻顯示,南希•佩洛西(Nancy Pelosi)有點懶散,讓人覺得她說話含糊不清。5月24日,特朗普總統在推特上發布了這條微博,目前已獲得超過9.5萬個贊。無論是歐巴馬歌曲的5000萬次點擊量,還是佩洛西的這段視頻的95000個贊,都遠高於上次左右總統大選的約8萬次點擊量。

「佩洛西在新聞發布會上結結巴巴」本;唐納德·j·特朗普(@realDonaldTrump) 2019年5月24日

以下哪個視頻(我應該補充一下,這兩個視頻都不是deepfake的)的目的是傳播錯誤信息?我們許多人會得出這樣的結論:與前者相比,後者更像是一種經過深思熟慮的政治舉措。但是向機器人解釋為什麼一種聲音控制方式是好的(甚至是受歡迎的),而另一種可能不是,這是非常困難的。如果第二段視頻是由一個明顯具有諷刺意味的無黨派帳號——比如說「酒鬼騙子」(DrunkFakes)——在twitter上發布的,情況會怎樣?如果它在沒有上下文的情況下被政治對手轉發了呢?模仿學徒時代的唐納德•特朗普(Donald Trump)是件好事嗎?這些上下文相關的、微妙的爭論很重要。

但是,如果要嚴肅對待與deepfake的鬥爭,就必須迅速、權威地做出決定,而且不能指責存在偏見。迅速行動是至關重要的,但做出正確的決定也是如此。

規模問題

這就是兩大挑戰中的第二個阻礙:規模。霍斯勒說:「如果社交媒體和科技公司能夠自動掃描上傳到它們網站上的每一個視頻,那就太好了。但現實是,考慮到每天上傳的視頻內容的數量,這幾乎是不可能的。」

根據2019年5月的數據,每天每分鐘大約有500小時的視頻上傳到YouTube。這使得手動檢測非常困難,但必須立即採取行動。「我們不能指望科技公司擁有無限的資源,」霍斯勒說。

「目前的(反deepfake)技術還沒有準備好讓普通人使用。」

最近,有更多的協調一致的努力使像Facebook這樣的平台對他們所承載的內容承擔法律責任。這些提議是否有任何意義還有待觀察。說到deepfake,這比監控帖子中的某些關鍵詞或不太受歡迎的網站連結要困難得多。

然而,政客們正迅速接受deepfake,將其視為需要解決的重大挑戰之一。他們有理論上的解決方案。例如,紐約民主黨代表Yvette Clarke曾建議,被修改的媒體必須使用水印標記。如果你沒有正確地標註你的視頻,將會對創作者或上傳者處以民事和刑事處罰。

文章來源: https://twgreatdaily.com/rPXQW20BJleJMoPM-O5_.html