聲音也能被深度偽造,我們還安全嗎

2019-09-16     儀征檢察

來源:光明網-時評頻道 作者:張田勘

伴隨信息技術和人工智慧(AI)的突飛猛進,藉助於AI的深度造假(Deepfakes)也進入人們的生活,並激起巨大漣渏,衝擊著人們的神經。在換臉造假之後,語音合成的深度造假也出籠了,這項技術可以模擬任何人的聲音。據央視財經報道,彭博社記者萬斯使用電腦合成語音給他母親打了個電話,他的母親並沒有識別出這是真兒子還是語音合成的假兒子。

在萬斯告訴母親是電腦合成他的語音在與她通話後問母親,「你覺得嚇人還是覺得不錯?」母親的回答是,「如果涉及到非常重要的事情,真的挺嚇人的。」

不只是萬斯的母親會認為深度造假的語音嚇人,天下的母親都會感到嚇人。無論是相貌還是語音的深度造假,都涉及技術的兩面性。在談到技術的兩面性時,人們都會引用劉易斯·芒福德的《技術與文明》,認為人類發明技術本來是為了便利和舒適,但最終自己的生活卻被技術無情地改變甚至主宰了。

網絡、IT和AI當然是人類智慧的結晶,向善和向著有利於人和社會的方向發展,將把人類社會帶入新的文明。但是,如果這些技術被不法者利用,而且管控不當,受到傷害的將會是每一個人。

今天的信息技術的發展早就超出了《技術與文明》所描述的特徵和人們拘泥的認識,即每項科技手段和成果只有在應用之後才會發現其問題,才能有時間和精力來監管。但是,信息技術的正反兩方面問題正如其特點一樣,一旦出現,就沒有時間差,會隨著其網絡傳播的速度,迅速傳遍人類社會的每一個角落,只要有網絡、WIFI布局的地方。

對於信息技術和AI產品,全球有社會責任感的研發人員和公司早就深有同感,如果只是把新產品的研發和新技術的應用當作賺錢的工具,勢必造成社會的混亂、失序。因此,微軟提出了人工智慧的一些倫理,包括公平、可靠和安全、隱私和保障、包容、透明和責任等。而且,這些準則已形成共識。

但是,僅有這些準則遠遠不夠。深度造假在語音和人臉、相貌上的多種產品就是如此。在中國有ZAO,在美國有FakeApp(2018年1月上線),都可以「一鍵換臉」。現在又有了「一鍵換音」的軟體和APP。而這些產品在上市上線之前,顯然並沒有經過倫理審查和法律評估。因此,它們一上線,其負面效應就和正面效應同時出現,不只是BUG太多,還出現「技術行惡」的種種可能,如欺詐、製造外交糾紛、煽動政治暴力、破壞選舉、危及國家安全等。

這也意味著,信息技術和AI產品並不等同於一般的產品,如汽車,只有出現交通事故之後,才會想到用交通規則來管理,而是需要有一個提前量。而且,信息技術和AI產品還有一個特點是,覆水難收。例如,一鍵換臉的FakeApp在Reddit網站和其他網站已明令禁止,但仍有超過9萬名用戶在Reddit上傳播換臉視頻和圖片。因此,在每一件AI產品和APP發布和投放市場之前,必須進行倫理和法律評估。

同步甚至是前置監管信息技術產品,已成一種強烈的現實需求。國際上已有法律和倫理依據——歐盟歐盟2018年5月25日頒布實施的通用數據保護條例(GDPR),把個人數據置於現行歐盟法律保護之下。目前,其已對某些產品可能引發的個人隱私泄露的嚴重關切作出了反應,例如GOOGLE MAP、FACEBOOK等。未來,GDPR還將通過進一步確立「數據保護法案」來補充。同時,人工智慧和信息技術倫理委員會也將對有技術公司在出台和發布AI產品進行審查,該委員應有工程師、科學家、律師、社會學家、公眾代表、科技公司法人或領導組成。

對信息科技產品尤其是AI產品進行科技倫理和法律審查,不是阻礙和桎梏科技發展,而是要為科技創新劃定正確航道和必須遵守的價值底線,唯其如此才能加速科技發展。只有制度能保障科技向善之時,才會有人類社會的未來,才會提升社會文明。(張田勘)

文章來源: https://twgreatdaily.com/zh-cn/v7UXOm0BJleJMoPM4VDA.html