自從攝影術(shù)發(fā)明的那一刻起,人們便開(kāi)始孜孜不倦地進(jìn)行著技術(shù)改造。在今天,沒(méi)有一家手機(jī)廠商不在追求更多的攝像頭、更高的像素、更先進(jìn)的成像算法,似乎只為追求一張更逼真的影像。
我們真的在追求“真”么?這幾乎是一個(gè)完全無(wú)法驗(yàn)證的玄學(xué)問(wèn)題。而我們卻很誠(chéng)實(shí)地在做一些“去真存假”的事情。比如為照片添加濾鏡、為自拍磨皮美白、為視頻增添特效。再比如,我們興致盎然地把自己的臉替換到夢(mèng)想中的明星身上。
看來(lái)追求“真實(shí)自我”其實(shí)成了一種自欺,而騙過(guò)眼睛讓大腦愉悅才是人們“真香”的追求,至少在視覺(jué)層面尤為明顯。以前,當(dāng)我們說(shuō)到“以假亂真”、“惟妙惟肖”這些字眼的時(shí)候,往往帶有一種對(duì)藝術(shù)的敬意,因?yàn)檫@意味著常人難以實(shí)現(xiàn)的難度和巨大的成本。
然而,隨著人工智能中GAN(對(duì)抗式生成網(wǎng)絡(luò))的進(jìn)化,讓靜態(tài)圖像、音視頻中人物生成變得日益逼真且廉價(jià),類似Deepfakes這類AI換臉技術(shù)普及后,那么問(wèn)題真的就來(lái)了。
2017年,一個(gè)名為“DeepFakes”的開(kāi)發(fā)者把AI換臉技術(shù)開(kāi)源,打開(kāi)了AI造假的潘多拉盒子。Deepfakes成為了這一技術(shù)的專有名詞。2019年初,隨著一段“楊冪換臉朱茵”的視頻火爆網(wǎng)絡(luò),又開(kāi)啟了中國(guó)的AI換臉元年。緊隨其后,各類AI換臉作品和應(yīng)用不斷出現(xiàn),AI換臉隨著普通人的 “嘗鮮”徹底走向了技術(shù)普及和產(chǎn)業(yè)失控。
首先,最顯著的影響就是AI換臉?biāo)破鸬囊粓?chǎng)色情視頻造假的黑產(chǎn)狂歡。不僅針對(duì)公眾人物、明星,甚至于只要在社交媒體多次上傳自拍照,每個(gè)人都要面對(duì)這一威脅。
更嚴(yán)重的是對(duì)于政治選舉、公共安全以及經(jīng)濟(jì)體系的威脅。一段關(guān)于政客受傷、重病的假視頻可能引起國(guó)內(nèi)的金融動(dòng)蕩甚至嚴(yán)重沖突。一段假冒權(quán)威人士發(fā)布恐怖襲擊、疾病災(zāi)害等假消息的視頻會(huì)引起群眾恐慌甚至暴力沖突。
最為深遠(yuǎn)的影響就是對(duì)于整個(gè)社會(huì)公信力的影響。越來(lái)越多的人從社交媒體獲得第一手信息。假視頻泛濫讓信息真?zhèn)坞y辨,比如刻意偽造的假新聞,模仿領(lǐng)導(dǎo)人、權(quán)威專家的權(quán)威信息。數(shù)以億計(jì)沒(méi)有專業(yè)辨識(shí)能力的普羅大眾會(huì)更容易輕信而被欺騙,引發(fā)更大的公信力危機(jī)。
作為一項(xiàng)日趨成熟且普遍應(yīng)用的技術(shù),AI換臉已成不容忽視的存在。
似乎除了色情造假產(chǎn)業(yè)的黑產(chǎn)狂歡外,受這一技術(shù)影響的相關(guān)幾方都亟需從當(dāng)前困境中突圍。對(duì)于政府來(lái)說(shuō),如何合理立法以限制造假內(nèi)容的生產(chǎn)和傳播又不越界妨礙民眾的言論自由?對(duì)于商業(yè)應(yīng)用來(lái)說(shuō),如何合理商用這項(xiàng)技術(shù)又避免侵權(quán)或引發(fā)信任危機(jī)?對(duì)于社交媒體來(lái)說(shuō),如何合理地限制這類造假音視頻內(nèi)容的傳播又不限制用戶的使用體驗(yàn)?
這些問(wèn)題的解決,仍然亟待AI技術(shù)本身先行給出一套檢測(cè)和控制假視頻的解決方案。
無(wú)限游戲:
擊敗Deepfakes的AI檢測(cè)技術(shù)困境
由技術(shù)引發(fā)的災(zāi)難只能由更先進(jìn)的技術(shù)來(lái)解決,這似乎是AI研究者的唯一邏輯。AI換臉的造假檢測(cè)技術(shù),似乎成為這場(chǎng)技術(shù)困境突圍的最佳解決方案。
但由于AI換臉的驗(yàn)證檢測(cè)技術(shù)具有嚴(yán)重依賴以往模型的反應(yīng)機(jī)制,即當(dāng)前方法無(wú)法檢測(cè)新的Deepfakes算法。因此,AI換臉的檢測(cè)技術(shù)與造假技術(shù)將長(zhǎng)期處在攻防賽狀態(tài)。
最早向Deepfakes發(fā)難的是美國(guó)國(guó)防部DAPRA。早在2018年5月,他們就設(shè)立了“媒體鑒證”項(xiàng)目,并與紐約州立大學(xué)開(kāi)發(fā)出一款“反換臉”AI刑偵工具,通過(guò)有效地預(yù)測(cè)眼睛是否眨動(dòng)的狀態(tài),當(dāng)時(shí)準(zhǔn)確率達(dá)到 99%。然而這款工具還沒(méi)推廣就失效了,因?yàn)镈eepfakes技術(shù)進(jìn)化了。
2019年6月,加州大學(xué)伯克利分校和南加州大學(xué)的研究人員打造的AI檢測(cè)系統(tǒng)構(gòu)建了高度個(gè)人化的“軟生物識(shí)別指標(biāo)”,對(duì)于當(dāng)時(shí)的假視頻的總體識(shí)別率超過(guò)了95%。但該技術(shù)也存在一些破綻,面臨被新的Deepfake算法反制的挑戰(zhàn)。
因此,這場(chǎng)攻防戰(zhàn)的第一個(gè)困境就是技術(shù)演進(jìn)的悖論。研究人員如果要提出一個(gè)更好的檢測(cè)技術(shù)之前,必須提出一種能夠勝過(guò)當(dāng)前市面上流行的AI換臉技術(shù)的新方法。也就是說(shuō),就要先造出更鋒利的“矛”,才能有資格造出更可靠的“盾”。
因?yàn)榧词寡芯咳藛T不如此做,隨著AI算力越發(fā)易得,GAN算法的不斷增強(qiáng),AI換臉技術(shù)也在不斷升級(jí)完善。比如,近期英偉達(dá)公開(kāi)了第二代人臉生成算法StyleGAN2的源代碼,它可以根據(jù)五官、發(fā)色生成自定義風(fēng)格的人臉圖像。基于StyleGAN2也可以結(jié)合多張人臉圖像進(jìn)行人臉融合,生成的合成圖像同時(shí)具備模板圖像特征與目標(biāo)圖像特征,已經(jīng)達(dá)到騙過(guò)眾多人臉識(shí)別系統(tǒng)的程度。
第二個(gè)困境就是對(duì)抗AI造假的數(shù)據(jù)合法性的牽制。雖然網(wǎng)絡(luò)黑產(chǎn)有著龐大的Deepfakes假視頻數(shù)據(jù),但因其違法和侵權(quán)屬性不可能用于研究。而AI換臉檢測(cè)需要大量的原始目標(biāo)人臉以及替換后的人臉數(shù)據(jù),因此,研究團(tuán)隊(duì)必須花費(fèi)時(shí)間和巨大成本創(chuàng)建合規(guī)的數(shù)據(jù)集。
這一嘗試已經(jīng)開(kāi)始,2019年初,來(lái)自德國(guó)和意大利兩所大學(xué)的AI研究者基于YouTube視頻生成了一段包含1000段假視頻的FaceForensics++數(shù)據(jù)集,用于訓(xùn)練鑒別造假視頻的神經(jīng)網(wǎng)絡(luò)。9月底,谷歌宣布開(kāi)源的包含3000段真假視頻的大型 Deepfakes 數(shù)據(jù)集,納入FaceForensics基準(zhǔn)當(dāng)中,供研究社區(qū)免費(fèi)獲取并用于開(kāi)發(fā)合成視頻檢測(cè)方法。
面對(duì)當(dāng)前這兩種技術(shù)困境,AI研究者有哪些方法可以應(yīng)對(duì)呢?
釜底抽薪與飽和攻擊:
AI換臉檢測(cè)解題新思路
近日,來(lái)自中國(guó)的兩個(gè)研究團(tuán)隊(duì)給出了不同的解決以上技術(shù)困境的解決方案。一種方案類似釜底抽薪,即針對(duì)AI換臉的底層邏輯去開(kāi)發(fā)新的算法,即使不需要更多的數(shù)據(jù),也能取得很好的驗(yàn)證效果。另一種解決方案則類似飽和攻擊,他們從現(xiàn)有的數(shù)據(jù)集為基礎(chǔ),將數(shù)據(jù)集擴(kuò)充到一個(gè)新的更大規(guī)模、更高質(zhì)量的程度,從而應(yīng)對(duì)更多樣化的人臉造假視頻的檢測(cè)。
2020年1月,來(lái)自微軟研究院與北京大學(xué)的研究小組共同提出了一種全新的 AI 換臉框架FaceShifter,以及一種檢測(cè)偽造人臉圖像的方法Face X-Ray。前者可以極大提高換臉的高保真度,而后者則用于檢測(cè)出復(fù)雜偽造人臉圖像。
FaceShifter生成的高保真度換臉圖像,可以很好保留目標(biāo)人臉的頭部姿態(tài)、面部表情、光線、顏色、強(qiáng)度、背景以及其他遮擋物。其優(yōu)勢(shì)之處在于該模型無(wú)需人工標(biāo)注數(shù)據(jù)的訓(xùn)練下即可生成任何人臉。
簡(jiǎn)單來(lái)說(shuō),F(xiàn)aceShifter與之前的AI換臉?lè)椒ㄏ啾?,效果表現(xiàn)更優(yōu)異。那這意味著,研究者同時(shí)提出的人臉造假的檢測(cè)工具必須更加強(qiáng)悍。
為此,F(xiàn)ace X-ray提出了一種全新的人臉偽造的圖像檢測(cè)方法。它通過(guò)顯示偽造圖像的混合邊界和真實(shí)圖像沒(méi)有混合來(lái)實(shí)現(xiàn)是否存在造假的檢測(cè)。這一方法就像是給被檢測(cè)的圖像拍攝了一張X光片一樣,讓其混合輪廓顯露原型。
同時(shí),相較于之前有監(jiān)督的人臉檢測(cè)方法會(huì)存在過(guò)度擬合的問(wèn)題,F(xiàn)ace X-Ray不需要依賴于與特定人臉操作技術(shù)相關(guān)的偽造圖像的知識(shí)。由于是無(wú)監(jiān)督訓(xùn)練,它的算法可以支持在不使用任何方法生成假圖像知識(shí)的情況下進(jìn)行訓(xùn)練。因此,它可以從更通用性的意義上來(lái)進(jìn)行有效檢測(cè)。
Face X-Ray在人臉造假的圖像檢測(cè)上采取了一種更根本的解決問(wèn)題的思路,即我們與其知道一個(gè)圖像是如何造假,不如知道一個(gè)圖像如何才是真的。Face X-Ray的解題邏輯就是:真圖像不會(huì)合成。
但可以預(yù)見(jiàn)的是AI換臉的技術(shù)演化也不會(huì)停步。比如說(shuō),AI換臉本身不再是A、B兩個(gè)面部圖像的混合疊加,而就是人臉生成算法基于A、B面部特征的直接生成新的一張面孔C。這樣Face X-Ray也面臨失效的嚴(yán)峻考驗(yàn)。
緊接著,商湯科技也加入這場(chǎng)攻防賽,他們則采用了類似飽和攻擊的戰(zhàn)術(shù)。據(jù)報(bào)道,商湯聯(lián)手新加坡南洋理工,推出了迄今為止最大的Deepfakes檢測(cè)數(shù)據(jù)集,DeeperForensics-1.0。該數(shù)據(jù)集包含60000個(gè)視頻,是現(xiàn)有同類數(shù)據(jù)集的10倍。
研究者意識(shí)到,之前數(shù)據(jù)集中的視頻存在著數(shù)量少、質(zhì)量低以及過(guò)于人為化的特點(diǎn);同時(shí)在一些假視頻檢測(cè)中,訓(xùn)練視頻和測(cè)試視頻存在高度相似性,這些讓人臉造假檢測(cè)的實(shí)際效力有待檢驗(yàn)。所以,他們提出的解決方案就是提供一個(gè)盡可能包含了潛在變化的真實(shí)世界詳盡可能的數(shù)據(jù)集,用于增強(qiáng)人臉造假檢測(cè)模型的打造。當(dāng)然,最終結(jié)果也驗(yàn)證了質(zhì)量好、數(shù)據(jù)量大、多樣性高的數(shù)據(jù)集可以明顯提高視頻人臉偽造的基準(zhǔn)測(cè)試結(jié)果。
在這個(gè)信奉暴力計(jì)算的時(shí)代,商湯實(shí)力演繹了一次“大力出奇跡”的策略,用飽和攻擊的方式去迎戰(zhàn)Deepfakes層出不窮的狡計(jì),而這一工作確實(shí)給后面的研究者提供了研究的便利。
目前,AI換臉的檢測(cè)技術(shù)仍是少數(shù)研究機(jī)構(gòu)的實(shí)驗(yàn)品。但隨著AI換臉技術(shù)的日臻完善,社交媒體以及眾多互聯(lián)網(wǎng)平臺(tái)如何利用AI檢測(cè)工具做好換臉圖像以及假視頻的甄別,已經(jīng)是迫在眉睫的事情。
被技術(shù)重塑的未來(lái):
反Deepfakes的商業(yè)化可能
AI換臉帶來(lái)的技術(shù)挑戰(zhàn),除了以上AI研究機(jī)構(gòu)和研究者的努力,還需要更多利益相關(guān)方的參與和支持。
正如同這場(chǎng)“對(duì)抗賽”并非來(lái)自實(shí)驗(yàn)室中華山論劍,背后還有像Facebook、Twitter、YouTube、這類平臺(tái)型機(jī)構(gòu),作為支持者和主導(dǎo)者。比如,去年9月,F(xiàn)acebook宣布啟動(dòng)一項(xiàng)“Deepfakes視頻檢測(cè)挑戰(zhàn)賽”(DFDC),懸賞1000萬(wàn)美元以期找到有效檢測(cè)利用Deepfakes技術(shù)生成的假視頻的方案。大賽提供一個(gè)數(shù)據(jù)集和排行榜,通過(guò)撥款和獎(jiǎng)勵(lì)方式以刺激行業(yè)創(chuàng)造新的檢測(cè)工具,從而防止被AI操縱的媒體誤導(dǎo)普通用戶。這無(wú)疑給中小AI研究機(jī)構(gòu)很大的鼓勵(lì)和資金支持。
要說(shuō)其背后原因,自然是因?yàn)樯缃幻襟w是造假視頻傳播的主要陣地,也是放大其不良影響的重要因素。人們常說(shuō)造謠一張嘴、辟謠跑斷腿,當(dāng)Deepfakes制造的虛假視頻在Facebook、Twitter上瘋狂傳播時(shí),就已經(jīng)造成了不可挽回的損失。而苦主想要追責(zé)時(shí),第一步要做的就是問(wèn)責(zé)平臺(tái)方。為了保證平臺(tái)上內(nèi)容的真實(shí)可控,社交媒體企業(yè)必然要找到Deepfakes視頻的甄別方式。
因?yàn)镈eepfakes帶來(lái)的負(fù)面效應(yīng)與名人政客、社交媒體平臺(tái)有著切實(shí)的利益關(guān)聯(lián),所以Deepfakes檢測(cè)技術(shù)也有著很明晰的商業(yè)前景。例如在未來(lái),社交媒體采購(gòu)Deepfakes甄別技術(shù),將其加入平臺(tái)視頻發(fā)布審核流程當(dāng)中,很可能會(huì)成為一種常態(tài)。同時(shí)面對(duì)假視頻泛濫的情況,或許還有可能出現(xiàn)權(quán)威的“視頻檢驗(yàn)機(jī)構(gòu)”,幫助受害者證實(shí)視頻的真假。
更重要的是,AI換臉代表的造假技術(shù)的狂潮不可逆轉(zhuǎn),我們也必須學(xué)會(huì)更好地適應(yīng)這一趨勢(shì)。就像PS的普及讓我們對(duì)圖像的造假已經(jīng)基本免疫一樣,AI造假視頻的普及也會(huì)讓人們逐漸適應(yīng),只不過(guò),對(duì)于大多數(shù)人而言,需要付出的學(xué)習(xí)成本和認(rèn)知轉(zhuǎn)變的成本有些高昂。在這一過(guò)程中,不論是技術(shù)開(kāi)發(fā)者還是傳播平臺(tái),都有責(zé)任向用戶進(jìn)行宣教。
當(dāng)“眼見(jiàn)為實(shí)”的邊界真正被打破,我們看待世界的規(guī)則需要重新被塑造。首先,向大眾普及Deepfake這項(xiàng)技術(shù)也變得非常重要。就如同身體對(duì)抗病毒的最好方式,就是通過(guò)注射疫苗先增強(qiáng)身體的抵抗力。其次,當(dāng)人們意識(shí)到眼見(jiàn)的一切視頻都有可能為假的時(shí)候,人們又可能會(huì)更重視有公信力和權(quán)威性的媒體信息平臺(tái)。
這也許是“眼見(jiàn)為假”時(shí)代帶給人們的更多的文明副產(chǎn)品之一。
聯(lián)系客服