本文提出了一種我監(jiān)督的方法,來學習參數(shù)人體所穿服裝的動態(tài) 3D 變形。最先進的 3D 服裝變形模型數(shù)據(jù)驅(qū)動方法,是使用需要大型數(shù)據(jù)集的監(jiān)督策略進行訓練的,這些數(shù)據(jù)集往往通過昂貴的基于物理的模擬方法或?qū)I(yè)的多攝像頭捕獲設(shè)置獲得。相比之下,本文提出了一種新的訓練方案,去除了對真實樣本的需求,實現(xiàn)了動態(tài) 3D 服裝變形的自監(jiān)督訓練。本文主要貢獻是認識到傳統(tǒng)上由隱式積分器逐幀求解的基于物理的變形模型可以重鑄為優(yōu)化問題。作者利用這種基于優(yōu)化的方案來制定一組基于物理的損失項,可用于訓練神經(jīng)網(wǎng)絡(luò),而無需預先計算真實數(shù)據(jù),這使我們能夠?qū)W習交互式服裝的模型,包括動態(tài)變形和細皺紋。
【13】SelfRecon: Self Reconstruction Your Digital Avatar from Monocular Video
本文提出了一個用于學習判別模型及其 GAN 生成的訓練數(shù)據(jù)端到端聯(lián)合的框架。并將此框架應用于密集的視覺對齊問題。受經(jīng)典 Congealing 方法的啟發(fā),GANgealing 算法訓練了一個空間Transformer,把來自在未對齊數(shù)據(jù)上訓練的 GAN 中的隨機樣本映射到一個常見的聯(lián)合學習目標模式。文章展示了八個數(shù)據(jù)集的結(jié)果,均證明了本文方法成功地對齊了復雜的數(shù)據(jù)并發(fā)現(xiàn)了密集的對應關(guān)系。GANgealing 顯著優(yōu)于過去的自監(jiān)督對應算法,并且在多個數(shù)據(jù)集上的性能與(有時甚至超過)最先進的監(jiān)督對應算法相當——不使用任何對應監(jiān)督或數(shù)據(jù)增強,盡管專門針對 GAN 生成的數(shù)據(jù)進行訓練。
【17】It's All In the Teacher: Zero-Shot Quantization Brought Closer to the Teacher