你見過蒙娜麗莎動起來的樣子嗎?只要一張照片,就能把靜態(tài)的人物變成動態(tài)的,而且還可以根據(jù)你的表情動起來。要是用在換臉上,恐怕Deepfakes被要拍在沙灘上了。
雖然似乎沒有微笑時那么好看,但不得不承認(rèn)的是,動圖看起來確實跟畫中的蒙娜麗莎十分相似。
除了蒙娜麗莎,愛因斯坦和瑪麗蓮·夢露也可以從靜態(tài)圖變成不同表情的動圖。
這是莫斯科三星 AI 研究中心和斯科爾科沃科學(xué)技術(shù)研究院的最新成果。
跟之前的 Deepfake 技術(shù)類似,兩者都是從已有圖片或視頻中提取特征,然后經(jīng)過神經(jīng)網(wǎng)絡(luò)的加工,生成了足可以假亂真的動態(tài)圖像或連貫視頻。
不同的是,Deepfake 需要大量訓(xùn)練和數(shù)據(jù)才能生成假圖像,而這項基于卷積神經(jīng)網(wǎng)絡(luò)和少樣本學(xué)習(xí)的新技術(shù),只需要非常小的數(shù)據(jù)集,甚至只靠一張圖片,就可以生成圖片中主人公的連貫面部動圖,可以是說話的樣子,也可以是其他表情,大大提升了模型的訓(xùn)練效率和廣泛性。
研究人員還展示了 AI 如何從兩張圖片中提取面都特征,之后融合為一張圖片,與之前英偉達的 StyleGAN 技術(shù)類似。(每刷新它一次,你都將得到一個從未存在過的人)
該研究成果以預(yù)印本論文的形式發(fā)表于 Arxiv 上。
利用少樣本學(xué)習(xí)實現(xiàn) AI 換臉
用 AI 實現(xiàn)換臉和造假人已經(jīng)不是什么新鮮事,幾年前大火的 Deepfake 應(yīng)用和最近的英偉達 StyleGAN 都可以實現(xiàn)。它們還可以繼續(xù)升級和改良,比如結(jié)合 Deepfake 和 GAN,從而獲得更厲害的“造假”效果。
只不過這類技術(shù)都有一個缺點,就是需要針對某人、某物或某類圖片(樣本)進行大量訓(xùn)練,才能獲得最佳效果。
于是研究團隊希望打造一個“少樣本學(xué)習(xí)(few-shot learning)”模型,在訓(xùn)練完成之后,可以用最少的目標(biāo)圖片,實現(xiàn)對目標(biāo)的模仿,尤其是模擬出目標(biāo)人物說話時的樣子,包括面部表情、眼睛、神態(tài)、臉型和嘴型等變化。
少樣本學(xué)習(xí)是近年深度學(xué)習(xí)領(lǐng)域的熱門研究方向之一,旨在通過預(yù)訓(xùn)練模型獲取先驗知識,改善傳統(tǒng)深度學(xué)習(xí)技術(shù)對海量數(shù)據(jù)的依賴,在數(shù)據(jù)缺失的情況下,還可以保持學(xué)習(xí)效率。
為了實現(xiàn)這一目標(biāo),研究人員采用了元學(xué)習(xí)(meta-learning)方法,讓 AI 具備自學(xué)能力。
換句話說,就是讓 AI 充分利用現(xiàn)有知識,來分析未來任務(wù)的特征,從而學(xué)會“如何學(xué)習(xí)”。比如讓 AI 觀看張三說話時的面部表情,提取動作特征(現(xiàn)有知識),再試著看著李四的臉提取特征(新任務(wù)),然后模擬出李四說話時的面部動作。
建立元學(xué)習(xí)架構(gòu)
他們創(chuàng)建了三套神經(jīng)網(wǎng)絡(luò)來實現(xiàn)元學(xué)習(xí)架構(gòu)。
第一個是嵌入器網(wǎng)絡(luò)(Embedder),負(fù)責(zé)將輸入視頻幀和人物面部特征映射成多維度向量。他們使用了開源的面部特征提取代碼。訓(xùn)練視頻的每一幀都有對應(yīng)的面部特征圖,由不同顏色的線條勾勒出來,里面包含的五官信息與姿勢無關(guān)。
第二個是生成器網(wǎng)絡(luò)(Generator),將嵌入器網(wǎng)絡(luò)沒看過的新特征圖和多維度向量作為輸入值,穿過到多個卷積層,輸出一個合成(視頻)幀——會使用參考視頻幀(ground truth)作為參考。生成器的訓(xùn)練目的是讓合成幀和參考幀盡可能相似,更好地模擬目標(biāo)對象的動態(tài)表情。
最后一個是鑒別器網(wǎng)絡(luò)(Discriminator),負(fù)責(zé)整合和處理原視頻幀、合成視頻幀、對應(yīng)的面部特征圖和訓(xùn)練序列。它通過序列數(shù),判斷合成幀與參考幀是否吻合,有多大差距,以及與面部特征圖是否匹配。根據(jù)匹配程度,網(wǎng)絡(luò)會計算出一個真實性得分,顯示出兩者之間的差別。
研究人員會通過(條件)鑒別器輸出的得分對三個網(wǎng)絡(luò)進行整體優(yōu)化,感知和對抗損失函數(shù)都包含其中。
元學(xué)習(xí)模型構(gòu)建完成后,研究人員使用了開源的 VoxCeleb1 和 VoxCeleb2 數(shù)據(jù)集,進行訓(xùn)練和測試。前者擁有 10 萬多個視頻樣本,來自 1251 個名人,被用來與基準(zhǔn)模型性能進行比較,后者擁有 100 多萬個樣本,來自 6112 個人,用于進行預(yù)訓(xùn)練和測試新模型效果。
在小樣本學(xué)習(xí)的前提下,模型需要憑借預(yù)訓(xùn)練的經(jīng)驗,觀看一小段完全沒有見過的一個人的視頻,在每一幀中模仿這個人的面部表情,并與真正的表情對比,得出結(jié)果。AI 可以使用的幀越多(圖片越多),比如從 1 張圖增加到 32 張圖,得到的最終效果就越貼近真實。
雖然從綜合評分來看,模型的準(zhǔn)確度有時不及基準(zhǔn)模型,但這是少樣本方法和模型本身導(dǎo)致的,還有進一步的提升空間。而且我們從結(jié)果也能看出,AI 模擬的整體效果還是可以接受的。
除此之外,研究人員還嘗試了靜圖變動圖,也就是我們最開始看到的蒙娜麗莎和愛因斯坦動圖。模型可以在一定程度上模仿出相似的表情,但背景圖案,尤其是有頭發(fā)的地方,偶爾會出現(xiàn)小瑕疵。
不過瑕不掩瑜,這樣一個少樣本對抗網(wǎng)絡(luò)的元學(xué)習(xí)框架,非常適合在沒有大量數(shù)據(jù)的情況下實現(xiàn) AI 換臉。而且還能啟發(fā)類似的后續(xù)研究,在該模型的基礎(chǔ)上改良和創(chuàng)新,比如通過改善面部特征提取過程,讓人物表情模擬更加自然,或者加入眼神凝視等目前無法實現(xiàn)的高難特征提取機制。
聯(lián)系客服