什麼是深度偽造?

語言: CN / TW / HK

© PANETTA AND BURGUND

利維坦按:

目前,人工智慧程式GPT-3版本 (人工智慧研究實驗室OpenAI開發) 已經完全可以勝任一般性質文章的寫作了:只要給它一個擬定的主題和基調,它就會“寫出”一篇沒有語法錯誤、邏輯清晰、條理縝密的文章來……別說一般的新聞通稿了,就連長篇幅的深度文章都已經做到了。更可怕的是, GPT-3可以進行各種文體風格的寫作:煽動性的網文、親納粹性質的宣言,甚至可以有模有樣地來回答你的提問。

(openai.com/blog/openai-api/)

(arxiv.org/abs/2009.06807)

同樣,和網際網路上的“偽書”一樣,圖片、影片乃至聲音都已經實現了“深度偽造”。以假亂真的例子不勝列舉,除去那些惡搞為目的的影片,有大量的“深偽”其實是製造了更多的混亂,其導致的一個最直接的惡果就是: 人們在本就難以分辨是非的網際網路平臺上更加難以辨別真偽。 畢竟,有多少普通人會學習一門技術,來確定眼前的這段影片是否是真實的呢……

在網易雲音樂 搜尋 【利維坦歌單】 跟上不迷路

我們有一個新號 利維坦行星 可以關注

你見過貝拉克·奧巴馬罵唐納德·川普是“徹頭徹尾的白痴”嗎,見過馬克·扎克伯格吹噓自己“竊取了數十億人的資料,並玩弄於股掌”嗎,見過瓊恩·雪諾為《權力的遊戲》的悽慘結局而由衷道歉嗎?你若回答“是”,便是看到了 深度偽造(DeepFake)

深度偽造奧巴馬的影片。© youtube

深度偽造是21世紀人們對Photoshop的開發,使用“深度學習”這種人工智慧形式來捏造虛假影象,因此得名“深度偽造”。要想讓人們覺得一個新詞是由某個政客所說,想要在自己喜愛的電影裡當影星,或者像專業舞者那樣翩翩起舞,那麼,是時候進行深度偽造了。

深度偽造作用何在?

很多時候其為慾望所需。2019年9月,人工智慧公司Deeptrace在網上檢索出1.5萬個深度偽造影片,且數量9個月內翻了近一倍,出乎意料的是,其中96%是小片片,其中99%將女明星換臉到小片片演員身上。

(deeptracelabs.com/mapping-the-deepfake-landscape/)

© Wired UK

新技術的存在,讓許多小白都可以用少量照片來進行深度偽造, 這類假影片很可能會蔓延,不僅僅再侷限於明星圈,助長復仇情色 (revenge porn,指在未經當事人同意的情況下擅自發布露骨圖片或影片到網上,編者注) 正如波士頓大學(Boston University)法學教授丹妮爾·西特龍(Danielle Citron)所言:“深度偽造技術正用作針對女性的武器。“除了小片片,還有大量的惡搞、諷刺和惡作劇因素參差其中。

僅僅能偽造影片嗎?

答案是否定的。

深度偽造技術可以從零開始,捏造出令人信服、但完全虛構的照片。 彭博社記者“梅西·金斯利(Maisy Kinsley)”在領英網(Linkedin)和推特上都有個人資料,而此人在現實中並不存在,這很可能就是深度偽造。另一個領英網虛擬人“凱蒂·瓊斯(Katie Jones)”自稱在美國戰略與國際研究中心工作,但人們認為,這是為外國間諜活動而進行的深度偽造。

英國前首相特蕾莎·梅的真實鏡頭(左)與使用深度偽造技術合成的影像(右)。© Gizmodo Australia

音訊也可以進行深度偽造,用於製作公眾人物的“聲音面板(voice skin)”或“聲音克隆(voice clone)”。 德國一家能源公司在英國設有子公司,2019年3月,該子公司執行長在接到一通電話後,向匈牙利的一個銀行賬戶支付了近20萬英鎊。 騙子模仿德國執行長的聲音對其進行詐騙,該公司的保險公司認為這個聲音是深度偽造的,但尚無證據。 據報道,類似的詐騙案例實際上是竊取了WhatsApp的錄音語音資訊,並對其進行深度偽造。

(www.wsj.com/articles/fraudsters-use-ai-to-mimic-ceos-voice-in-unusual-cybercrime-case-11567157402)

Facebook執行長馬克·扎克伯格原創影片與深度偽造影片的對比。© The Washington Post via Getty Images

如何進行深度偽造?

高校研究人員和特效工作室一直以來都在在推動影片和影象處理突破可能性邊界。深度偽造最初源於一個名為“deepfakes”的Reddit社交網站使用者, 該使用者於2017年在 Reddit上釋出了經偽造過的色情影片片段。這些影片將色情演員換臉成蓋爾·加朵(Gal Gadot)、泰勒·斯威夫特(Taylor Swift)、斯嘉麗·約翰遜(Scarlett Johansson)等名人。

眾多女星成為深度偽造的受害者。© Guardian

製作一段換臉影片需要以下幾個步驟。首先,你要執行一種叫做編碼器的AI演算法,對比數千張名人與小片片演員的面部照片,編碼器會找出並學習兩張臉之間的相似之處,並將其化為兩人共有特徵,在這個過程中,演算法對影象進行壓縮。然後,用另一稱作解碼器的AI演算法來解壓影象,恢復人臉。

人臉之間不盡相同,你需要訓練一個解碼器來恢復第一個人的臉,訓練另一個解碼器來恢復第二個人的臉。想要進行換臉,你只需將編碼後的影象輸入“錯誤”的解碼器。例如,將A臉部的壓縮影象輸入B的解碼器,然後,解碼器用A的面部表情重建B的臉,要想製作出以假亂真的影片,就必須逐幀繪製,迴圈往復。

對比俄羅斯總統普京的原創和深度偽造影片。© Alexandra Robinson/法新社via Getty Images

另一種深度偽造的方法是使用生成對抗網路(generative adversarial network ),簡稱Gan。Gan讓兩種人工智慧演算法相互對抗,第一種演算法稱為生成器(generator),對其輸入隨機噪聲,並將其轉化為影象。然後,合成影象就被新增到如名人畫像等真實影象中,再將這些真實影象輸入到第二個演算法——鑑別器(discriminator)之中。 起初,這些合成影象和人臉相去甚遠,但不斷重複這一過程,加之效能反饋,鑑別器和生成器能力都會得到提高。 只要有足夠的迴圈和反饋,生成器就會開始生成極近逼真的名人臉,但這些名人卻並不存在。

(research.nvidia.com/publication/2018-04_progressive-growing-gans-improved-quality-stability-and-variation)

深度偽造背後的踐行者是哪些人?

從學術和工業研究人員到業餘愛好者,從視覺效果工作室和色情作品製作者,每個領域幾乎都有人涉獵。 政府很有可能也會涉足這項技術,將其作為一大線上戰略,用其給極端組織冠以臭名,並擾亂其運作,或者與目標人物取得聯絡。

深度偽造需要什麼樣的技術?

要是在普通電腦上進行深度偽造,想要做出以假亂真的效果簡直是天方夜譚。

大多數深度偽造都是在高階桌上型電腦上建立的,其顯示卡算力極強,質量更高的深度偽造則是在雲端計算裝置上製作生成,這將處理時間從數天或數週縮減至數小時,但同時製作者也需要掌握相關專業知識,尤其是優化、補全影片,減少閃爍和其他視覺缺陷,也就是說,現在有很多工具可以幫助人們進行深度偽造。

換臉應用程式Zao引發了隱私安全問題。© SIPA USA/PA Images

有幾家公司會為人們製作這些工具,並在雲端完成所有處理,甚至還有一款名為“Zao”的手機應用,演算法在系統內對一系列電視和電影角色進行學習訓練,使用者可以自其中自行加入自己的臉部照片。

如何辨別深度偽造?

隨著技術進步,辨別難度越來越大。2018年,美國研究人員發現深度偽造影片中的角色不會正常眨眼,這不足為奇: 大多數影象中,人眼都是睜著的,所以演算法從未真正學習過眨眼。 起初,這似乎是辨別深度偽造靈丹妙藥。但這項研究一經發表,深度偽造角色就學會了眨眼。這便是遊戲本質: 弱點一旦暴露,就會被修復

(arxiv.org/abs/1806.02877)

© The Official Microsoft Blog

劣質的深度造假更加容易被發現。角色口型可能對不上,膚色可能不協調,或者換臉後面部邊緣可能會有閃爍,而像頭髮這類細節更是讓深度偽造者頭疼,難以將其渲染得當。渲染不好的珠寶和牙齒也可能暴露本質,奇怪的燈效也是禍源,比如照明情況不相一致、虹膜上的反射格格不入等。

TikTok上“深偽”的湯姆·克魯斯。©  TikTok

政府、高校和科技公司都在資助檢測深度偽造的研究。2019年12月,由微軟、Facebook和亞馬遜贊助第一屆深度偽造檢測挑戰賽拉開帷幕。屆時全球各地的研究團隊都會參與大賽,爭霸深度偽造檢測遊戲。

(ai.facebook.com/datasets/dfdc/)

在2020年美國大選的準備階段,Facebook禁止了深度偽造影片,這些影片可能會誤導觀眾,讓某些人遭受無妄之災。然而,該政策只禁止人工智慧生成的虛假資訊釋出,這就意味著,該平臺上仍存在“淺層偽造(shallowfake)” (見下文)

一名女子觀看唐納德·川普和巴拉克·奧巴馬的深度偽造影片。© Rob Lever/AFP via Getty Images

深度偽造會造成嚴重破壞嗎?

我們可以預見,此後深度偽造作品更是會雨後春筍般湧現,造成騷擾、恐嚇、歧視、破壞,影響社會穩定,但深度偽造會引發重大國際事件嗎?我們不得而知。

世界領導人按下大紅色按鈕 (發射核彈) 的深度偽造並不會引發世界末日,深度偽造的軍隊在邊境集結的衛星影象也不會造成多大麻煩:大多數國家都有自己靠得住的安全成像系統。

馬斯克直播抽大麻,導致特斯拉股價暴跌。 © MIT Technology Review

儘管如此,深度偽造影片在製造麻煩這方面仍可以大施拳腳。2019年,埃隆·馬斯克(Elon Musk)直播抽大麻,導致特斯拉股價暴跌。同年12月,唐納德·川普在參加北約會議後提前飛回家,當時網上便流傳出了其他世界領導人刻意嘲笑他的畫面,以假亂真。

魚目混珠的深度偽造會影響股價、影響選民投票,並引發宗教緊張局勢嗎?這似乎是必然。

深度會破壞信任嗎?

實際上,深度偽造、其他合成媒體以及假新聞的影響遠不止於此, 更令人生厭的是, 這些因素會創造出一個零信任社會,人們無法或者不願再費心去分辨真假,明察是非。當信任的根基動搖時,人們更容易對具體事件提出質疑。

2018年,喀麥隆通訊部長將一段影片斥為假新聞,大赦國際(Amnesty International)卻對該影片深信不疑,影片中喀麥隆士兵正處決平民。

(www.amnesty.org/en/latest/news/2018/09/digitally-dissecting-atrocities-amnesty-internationals-open-source-investigations/)

唐納德·川普承認在一段錄音對話中吹噓自己抓過女性下體,後來他表示,這段影片是假的。安德魯王子接受英國廣播公司艾米麗·梅特利斯(Emily Maitlis)採訪時表示,對自己與弗吉尼亞·吉弗爾(Virginia Giuffre)合影的真實性表示懷疑,而弗吉尼亞的律師卻堅稱這張照片是絕對真實、未經篡改的。

(www.theguardian.com/us-news/2017/nov/29/denying-accuracy-of-access-hollywood-tape-would-be-trumps-biggest-lie)

紐卡斯爾大學(Newcastle University)網路法律權威專家莉蓮·愛德華茲(Lilian Edwards)教授說: “問題可能不在於虛假的現實,而在於真實的現實似乎變得不置可否。”

2020年,韓國主播金珠河(Kim Joo-Ha)的新聞播報。實際上,這是深度偽造的金珠河,儘管播出前觀眾已被告知真相,但還是引起了公眾的不同反應。© youtube

隨著技術不斷深入,人們獲取技術更加方便 ,深度偽造可能會給法庭事務帶來麻煩,尤其是處理在兒童撫養權之爭和僱傭關係等問題上,偽造事件可能會因此成為證據。但深度偽造也會帶來個人安全風險: 深度偽造可以模擬生物識別資料,並有可能欺騙依賴面部、聲音、靜脈或步態識別的系統,藉此矇混過關。

顯而易見的是,有人會利用這項技術進行詐騙。 例如,某人突然接到電話要求他們打錢,他們不太可能會把錢轉到一個未知的銀行賬戶,但如果自己的“媽媽”或“姐姐”在WhatsApp上打了給你打了一通影片通話,並同樣要求你轉錢,你又會怎麼做呢?

解決方案是什麼?

諷刺的是,AI可能就是答案。

人工智慧已經可以幫助人們識別假影片,但許多現有檢測系統都存在一個致命缺陷:這些系統更適用於檢測名人影片,因為名人影片在網上比比皆是,系統可以免費獲得,並進行數小時的訓練。科技公司現在正在研發檢測系統,目的是在“假貨”出現時便將其標記。

© Partnership on AI

另一種策略是關注媒體來源,數字水印並非萬無一失,但區塊鏈線上分類賬系統可以儲存影片、圖片和音訊的防篡改記錄,因此這些多媒體的來源和任何篡改行為隨時都處在監測之下。

深度偽造都是意圖作惡嗎?

非也。許多深度偽造是帶有娛樂性質的,有些還尚有裨益。聲音克隆深度偽造技術可以在人們因病失聲時恢復其聲音。深度偽造影片可以讓畫廊和博物館充滿活力。

深度偽造的達利。© youtube

在佛羅里達的達利博物館中有一段深度偽造影片,影片中一位超現實主義畫家介紹自己的藝術作品並與遊客進行自拍。對於娛樂圈來說,科技可以用來改進外語影片的配音,更有爭議的是,讓過世演員死而復生。比如,已故的詹姆斯·迪恩(James Dean)將主演越南戰爭電影《尋找傑克》。

喜劇演員比爾·哈德爾(Bill Hader)模仿阿爾·帕西諾和施瓦辛格時候的深度偽造影片。© youtube

那淺層偽造呢?

薩姆·格雷戈裡(Sam Gregory)在人權組織“證人”(Witness)工作,“淺層偽造”一詞便是由他所創作,指的是影片內容斷章取義或僅經簡單的編輯工具修改。這些影片雖然質量低劣,但無疑具有影響力。一段淺層造假影片在社交媒體上流傳,影片故意放慢了南希·佩洛西(Nancy Pelosi)的演講速度,讓人感覺其冗長囉嗦,虛化了美國眾議院議長的聲音,讓其聽起來含糊不清。

© ASSOCIATED PRESS

在另一起事件中,CNN記者吉姆·阿科斯塔(Jim Acosta)與總統發生激烈爭執,被暫時禁止參加白宮新聞釋出會。在隨後釋出的一段淺層偽造影片中,他與一名試圖拿掉他麥克風的實習生髮生了肢體接觸。 後來發現,該影片在關鍵時刻進行了加速處理,使得他的舉動顯得咄咄逼人。 後來,阿科斯塔重新拿回了自己的媒體通行證。

(www.forbes.com/sites/laurenaratani/2018/11/08/altered-video-of-cnn-reporter-jim-acosta-heralds-a-future-filled-with-deep-fakes/?sh=621a6af23f6c)

英國保守黨也使用了類似的淺層造假伎倆。在大選的準備階段,保守黨篡改了對工黨議員基爾·斯塔默(Keir Starmer)的一次電視採訪,讓他看起來愚笨,無法回答有關保守黨脫歐立場的問題。

深度偽造盛行的今天,這類惡作劇只會層出不窮。正如Deeptrace威脅情報(threat of intelligence)主管亨利·阿杰德(Henry Ajder)所言:“世界正愈發人工化,這項技術不會消失。”

文/ Ian Sample

譯/ Zhao Hang

校對/兔子的凌波微步

原文/ www.theguardian.com/technology/2020/jan/13/what-are-deepfakes-and-how-can-you-spot-them

本文基於創作共享協議(BY-NC),由 Zhao Hang 在利維坦釋出

文章僅為作者觀點,未必代表利維坦立場

往期文章:

投稿郵箱: [email protected]

西文學術書1元起拍,點選 閱讀原文 入場