AI還沒玩明白,反AI工具已經來了

2023-09-21     新榜

原標題:AI還沒玩明白,反AI工具已經來了

作者 | 阿虎

編輯 | 張潔

校對 | 捲毛

快問快答!下面哪一張圖是AI生成的?

先賣個關子,結尾公布答案。

如今,由AI生成的內容逐漸充斥我們的生活,隨著AI技術的疊代,更是讓人感到真假難辨。

今年6月,歐盟執法機構Europol的一份報告顯示,到2026年,網際網路上約90%的內容或由AI產生或者編輯。

為了提高內容的透明度和可信度,國內外各平台陸續上線內容創作者聲明功能,給AI內容打「標籤」。

9月20日,短視頻平台TikTok全面啟動平台AIGC內容的監管,推出了「標記AI生成內容」的新功能。如果創作者未標記涉及的AI工具,內容可能會被刪除。

9月13日,B站發布《關於「主動添加內容標識」的公告》稱,將在9月20日上線「創作者聲明」功能,允許UP主為其視頻添加標識,比如人工智慧生成、虛構內容等。

9月8日,微信發布關於規範「自媒體」創作者內容標註的公告,要求「自媒體」創作者應主動對發布內容進行規範標註。利用深度合成技術生成內容時,要遵守法律法規及平台規則,顯著標註內容為技術生成。

圖片來源:微信珊瑚安全公眾號

更早一些,今年5月,抖音、小紅書等平台均要求創作者在人工智慧生成的內容上顯著標註,根據實際情況勾選「內容由AI生成」。抖音發布了《關於人工智慧生成內容標識的水印與元數據規範》通知,幫助用戶區分虛擬內容和真實內容。

各平台對於AI生成的內容都需要進行明確的聲明,無疑為內容添加了一層水印保護。

那麼,為什麼我們需要數字水印?AI水印該如何添加?AI泛濫的時代,或許最終還是需要科技來提供可行解法。

DeepFake造假泛濫,難辨真偽

深度偽造(DeepFake)指的是一種基於人工智慧合成某個人的長相或聲音的技術,名人和公眾人物通常是此類造假行為的受害者,比如此前的AI孫燕姿以及「時尚教皇」。

教皇穿著巴黎世家風格羽絨服,走在街道上;AI生成的虛假圖像

最近,一系列利用深度偽造技術製作的虛假視頻在TikTok、YouTube等主流社交媒體平台上引起關注。

這些虛假視頻往往由大眾熟悉的人物合成,例如全球首富馬斯克在視頻中推薦自己看好的投資機會,讓人難以判斷其真實性。

AI不光被用來惡搞名人明星,娛樂大眾,也被拿來捏造國際新聞大事,撼動股價。

5月底,一張五角大樓著火的照片在社交平台上瘋傳,這張圖片一度導致標普500指數明顯走低,由漲轉跌。最後,有媒體報道稱該圖片是由人工智慧生成的。

而在網際網路時代,幾乎每個人都可能成為AI的受害者。(相關閱讀《你的自拍照可能被收入「不雅圖素材庫」,AI作惡其實離你很近!》)

某知名AI文生圖的網站平台允許用戶進行高度自定義創作模型,生成多種風格的圖像,當然也包括生成一些擦邊向的內容。

這些模型大多數情況下都未經當事人的同意,在網際網路上擅自抓取照片,進行模型訓練,生成特定風格、甚至軟色情的人物圖片,以博取下載量和關注。

今年7月,德國廣告代理商DDB發布了一則關於社交平台兒童數據安全的公益廣告,向人們展示兒童面部數據有多大可能會被用於創作成人內容,呼籲家長儘量少在網上分享兒童照片。

在早期,識別深度偽造技術並不具有挑戰性,因為它們大多數都存在著明顯的缺陷,例如不自然的面部表情或眼睛不眨眼。但隨著時間的推移,深度偽造技術逐漸消除了缺陷,使造假更加接近現實,達到「無中生有」的效果。

除了AI生成圖像,讓人分不清真假之外,在音視頻領域的偽造技術則更為泛濫。

比如近日,浙江警方偵破一起造謠牟利案,作案團伙利用AI生成1.8萬餘個虛假視頻後發布,非法獲利4萬餘元。

此前發生了一系列的AI詐騙事件,由於詐騙金額過大,速度之快,也引起了不少討論。安徽有受騙者接到「朋友」在開會的視頻,9秒被騙245萬;包頭有人被換臉和擬聲的親友迷惑,10分鐘內被騙430萬。

可見,DeepFake技術已經深入多模態的各個方面,而水印的添加可以在「真假」、「虛實」之間構築起一道屏障,以防混淆視聽。

AI水印,該怎麼加?

無論教皇是否真的變裝走在了大街上,還是聽到的歌曲並非孫燕姿演唱,我們都需要知道內容是否被AI篡改過或者壓根由AI生成的。

7月27日,Open AI團隊悄然下線了自己推出的「AI生成內容識別器」,理由是該識別器對AI生成內容的檢出成功率僅為26%,AI檢測工具準確率已經無法滿足實際操作中的需求。

在這個背景下,數字水印成為了平台和工具提供方一致認為可行有效的解決方法。

它是一種隱藏在數字內容中的特殊標識信息,用於標識內容的來源和真偽,類似於隱形的「防偽標記」,例如在文章中隱秘添加「由AI生成」的文字樣式。

起初,國外創意平台Shutterstock最先宣布用C2PA協議(類似區塊鏈的加密技術)為AI生成內容打上標籤,用來區分是否為人類創作。

C2PA通過數據加密技術給每個像素進行編碼,以便之後查看創作源頭、歷史修改記錄等等,讓作品可以溯源,降低生成式人工智慧導致的「誤傳內容」。

這便是數字水印最初的表現形式,微軟、Adobe、索尼等科技企業都將其集成在了自己旗下的產品中,為AI生成內容打上水印標記。

8月31日,谷歌上線了一個名為Synth ID的新工具,能夠在AI生成內容中嵌入肉眼不可見的水印,並且不會影響圖像本身的質量和體驗。

谷歌DeepMind CEO Demis Hassabis表示,SynthID是為了解決深度偽造潛藏的危機而開發的,同樣可以應用在音頻、視頻、文本等其他形式的AI生成內容上。

SynthID目前僅為谷歌文生圖工具Imagen生成的圖片添加水印,並且識別圖片是否為該模型生成。

改變亮度、顏色、噪點等信息元素,水印依舊存在

該工具提供了三個程度級別來解釋水印識別的結果。如果檢測到數字水印,則圖像的一部分可能是由谷歌繪圖工具Imagen生成的。和傳統水印不同的是,即使圖像被裁剪、編輯、或者旋轉,水印依然可以被檢測到。

SynthID中水印檢測的不同結果

SynthID不僅能夠為圖片添加防偽標記,同樣也能夠識別圖片的真假,一定程度上提升AI產品的安全性。

同樣,8月21日,商湯科技推出可信AI基礎設施SenseTrust,上線數字水印技術,並將其服務於旗下的「商湯秒畫」等產品中。

具體應用上,用戶可在AIGC相關產品發布時加入,並且只有通過特定的解碼器和專屬密鑰才能提取,能夠支持多模態數據。

不過除了隱蔽的數字水印之外,商湯秒畫同樣在AI生成圖片上加入了傳統的顯性水印。

除了給圖像內容添加標記外,有研究團隊正在為AI生成文字工具開發水印版本。

此前,馬里蘭大學研究人員發表了一篇《A watermark for Large Language Models》的研究論文,詳細描述了如何給文本內容加上數字水印。Open AI 系統安全性部門負責人Jan Leike在接受採訪時曾表示,Open AI正在探索的水印方法就類似於此種。

圖片來源:論文《A watermark for Large Language Models》

這個方法的大概意思是,在生成的句子中增加一些特定單詞出現的機率,就可以給句子添加一個「數字水印」,方便檢測句子是否由AI生成。值得一提的是,這種辦法的「水印」只有從一開始嵌入到大語言模型才有效。

比如,研究人員讓ChatGPT生成句子「今天的天氣很好,小明在_____」,為了給它加上水印,需要先隨機選擇一部分單詞,像「公園」、「學校」、「天氣」作為系統偏好詞表。

有水印的版本是「今天的天氣非常好,小明在公園打網球」,而無水印版本可能是「今天的天氣很好,小明準備去打網球」。

生成的句子對於普通人來說看起來沒有區別,但通過統計句子中出現的偏好詞彙的數量,就可以檢測出這個句子是否被加上了數字水印。當偏好詞彙的數值高於一定比例,水印檢測器可以判定文本由AI生成。

當然,以上的例子只是根據原理做的簡單模擬,實際論文中的系統生成詞表更為複雜。

在圖像中稍微改變某些像素的顏色來嵌入信息,或是在文字內容中改變個別單詞出現的頻率來插入信息,都是數字水印的添加方式,並且這樣的隱藏水印由AI在輸出時自行添加,用戶難以察覺。

除了平台為AI生成內容自動添加水印,來保證生成內容的安全性外,內容創作者還會利用水印來對抗AI複製技術的應用。

今年4月,上海交通大學研究團隊上線「Mist」開源工具,通過在圖像上放入看不見的「水印」,使圖像無法識別,防止AI進行學習和模仿。

它能夠對圖像進行「噪聲處理」,使得圖像生成工具的算法難以辨認原始圖片的特點,從而難以生成與原圖風格類似的新圖片。

比如,原圖是莫奈的《撐傘的女人》,圖二是給AI喂圖後生成的AI版本。如果我們對原圖加入Mist數字水印,那麼AI處理的圖片效果就會如第四張圖片一般。這樣就能避免創作者作品被拿去隨意生成類似圖像。

用戶也可以根據實際需求對水印進行設置和調整。在設置水印信息時,需要確保信息的唯一性,以確保水印的有效性。

社交平台上有很多創作者表示,「願意上傳圖片,不代表願意將作品獻祭給AI」。

B站UP主「虛幻的生物」分享了開源軟體Glaze,教網友如何防止AI「白嫖」自己的作品。UP主「-邊火-」投稿了一條「賽博偏方加噪點加水印,是否能躲過AI識別」視頻,評論區「卷」起了添加AI防偽標識的辦法。

打標記能防止AI「濫用」嗎

在生成式AI帶來的挑戰下,中國、美國、英國等各國政府都積極推出AI管理規範,不過,目前在以下五個國家或地區中,僅歐盟和中國對於生成內容AI水印等標識提出了要求。

6月14日,歐盟正式批准通過《人工智慧法案》草案,要求AI生成的內容應該被標註,旨在提高對AI生成內容的透明度。目前,該法案尚未正式生效。

8月15日,我國落地生效的《生成式人工智慧服務管理暫行辦法》,針對生成內容的準確和可靠性提出了新要求,服務提供者需要採取相應的技術和管理措施,以確保生成的內容符合事實,並且能夠提供透明的信息來源。

對於谷歌、Adobe、微軟等科技公司和平台來說,AI生成內容引發的假消息和假新聞的傳播,相應平台需要承擔起監管不當的責任。

如果一張圖片顯示有數字水印,那麼平台可以相應地打上標記「內容由AI生成,謹慎甄別」,以便網友能夠更容易地將其識別為虛假內容,一定程度上降低其傳播的速度。

另外,對於內容創作者來說,打上數字水印,意味著將內容版權聲明為自己所有,防止被AI隨意拿去訓練模型。

無論是創作者聲明或是隱形水印標記,都正在樹立起一道保護知識版權和內容安全的數字防線。

然而,就像Open AI CEO Sam Altman所說,不存在一個完美的AI生成辨別工具。目前,這些標記AI生成內容的新工具仍處於起步階段,並未完全面向公眾開放。

另一方面,並非所有AI生成工具都願意給自己的內容打上AI水印。如何在水印的實施標準上達成共識,對於人工智慧領域的企業來說還是個未知數。

不過,這些水印標識至少能夠幫助降低虛假信息誕生的風險,實現對內容的溯源和確認版權。

回到最初的兩張圖,不知道各位猜對了嗎?左圖是AI生成的,右圖是真實拍攝的。

文章來源: https://twgreatdaily.com/zh-cn/850eae133fc7460b294fb0ef073f6008.html