1. MockingBird:AI擬聲,5秒內(nèi)克隆您的聲音并生成任意語音內(nèi)容
說明:GitHub上有一個項目最近登上了每日趨勢榜,只需5秒,就能用AI 技術(shù)來模擬聲音來生成任意語音內(nèi)容,并且還支持中文。
開源地址:
github/babysor/MockingBird
演示視頻:
bilibili/video/BV17Q4y1B7mY
2. OpenAI最新技術(shù)Codex,不會代碼也能編游戲
說明:OpenAI 旗下編程產(chǎn)品Codex 已經(jīng)正式開放封閉 Beta 測試。這款工具旨在將自然語言(英語、中文等)翻譯為編程語言。它是一個簡單的網(wǎng)絡(luò)工具,具有三個窗口:一個用于輸入命令,一個顯示由這些命令生成的代碼,一個顯示代碼的作用。理論上,您可以將 Codex 用于十多種編碼語言的各種任務(wù),但最酷的用途是使用少量自然語言指令編寫簡單的 Javascript 游戲。
項目地址:
openai/blog/openai-codex/
演示視頻:
youtube/watch?v=SGUCcjHTmGY
3. Real-ESRGAN:用純合成數(shù)據(jù)訓(xùn)練真實世界的盲超分辨率
說明:ESRGAN、EDVR等超分領(lǐng)域里程碑論文的作者在超分領(lǐng)域的又一力作,他們對ESRGAN進(jìn)行擴(kuò)展,將其應(yīng)用場景從合成數(shù)據(jù)向真實場景數(shù)據(jù)走了一大步。針對現(xiàn)有圖像超分、盲圖像超分退化模型設(shè)計的不足,提出了一種高階退化建模方案;針對高階退化空間下原始判別不穩(wěn)定問題,提出了UNet+SN的超強(qiáng)判別器。最終所得Real-ESRGAN在真實場景數(shù)據(jù)下取得了非常優(yōu)秀的、視覺效果絕佳的超分效果。
開源地址:
github/xinntao/Real-ESRGAN
演示地址:
huggingface/spaces/akhaliq/Real-ESRGAN
4. 英偉達(dá)開源StyleGAN3:皮膚、毛發(fā)不再粘屏幕,還能360度旋轉(zhuǎn)
說明:StyleGAN生成式對抗網(wǎng)絡(luò)是一種最先進(jìn)的高分辨率圖像合成方法,從最初的GAN到StyleGAN2變體,其圖像合成能力一直在突破人類的想象,而這次升級版StyleGAN3的對生成細(xì)節(jié)的把控更是令人驚嘆。它從根本上解決了StyleGAN2 圖像坐標(biāo)與特征粘連的問題,實現(xiàn)了真正的圖像平移、旋轉(zhuǎn)等不變性,大幅提高了圖像合成質(zhì)量。
開源地址:
github/NVlabs/stylegan3
5. RobustVideoMatting:穩(wěn)定的人物視頻摳像
說明:來自字節(jié)跳動的算法,不同于現(xiàn)有神經(jīng)網(wǎng)絡(luò)將每一幀作為單獨圖片處理,RobustVideoMatting(RVM)使用循環(huán)神經(jīng)網(wǎng)絡(luò),在處理視頻流時有時間記憶。RVM 可在任意視頻上做實時高清摳像。在 Nvidia GTX 1080Ti 上實現(xiàn) 4K 76FPS 和 HD 104FPS。
開源地址:
github/PeterL1n/RobustVideoMatting
演示地址:
peterl1n.github/RobustVideoMatting/#/demo
6. Game Life Restart:人生重開模擬器
說明:一款純文字內(nèi)容的網(wǎng)頁游戲,3天就創(chuàng)造2億訪問量。玩法超級簡單:“你”重開人生,扮演一個剛誕生的嬰兒,通過“開局10連抽”為自己選擇3種天賦,并將20點(在天賦作用下點數(shù)總值會變動)初始屬性值分配到顏值、智力、體質(zhì)和家境,即可以文字描述的方式開啟“新人生”。
開源地址:
github/VickScarlet/lifeRestart
試玩地址:
liferestart.syaro/view/index.html
7. air-drawing:手勢估計,通過攝像頭隔空寫字、繪圖
說明:這個工具使用深度學(xué)習(xí)來幫助你用你的手和網(wǎng)絡(luò)攝像頭畫畫和寫作。 一個深度學(xué)習(xí)模型被用來預(yù)測用戶意圖:你是想要筆畫(“向下”)還是只是移動你的手(“向上”),隨著手指的移動,可以在屏幕上隔空繪制圖形。
開源地址:
github/loicmagne/air-drawing
演示地址:
loicmagne.github/air-drawing/
8. GFPGAN:向真實世界的基于生成面部先驗的盲目面部恢復(fù)
說明:騰訊ARC實驗室最近發(fā)布了一篇論文GFPGAN,旨在開發(fā)實用的人臉復(fù)原算法 ,介紹了盲人臉修復(fù)模型GFP-GAN,不僅性能快,結(jié)果還保真,尤其對模糊的老照片效果非常好。
開源地址:
github/TencentARC/GFPGAN
演示地址:
huggingface/spaces/akhaliq/GFPGAN
9. StyleGAN-NADA:基于CLIP模型的圖像生成器
說明:StyleGAN-NADA提出了一種文本驅(qū)動的方法,生成模型可以在沒有看到任何圖像的情況下,通過訓(xùn)練產(chǎn)生特定領(lǐng)域的圖像。 通過自然語言提示和幾分鐘的訓(xùn)練,此方法可以適應(yīng)一個生成器跨多個領(lǐng)域的特點,包括不同的風(fēng)格和形狀。
開源地址:
github/rinongal/StyleGAN-nada
演示地址:
replicate.ai/rinongal/stylegan-nada
10. DeepFaceLive:實時換臉PC流媒體或視頻通話
說明:DeepFaceLive是DeepFaceLab作者的又一個開源力作,推出賣二手手機(jī)實時換臉軟件,主要用于直播啊場景。一鍵安裝,打開軟件,就能夠?qū)崟r處理直播中的視頻,給主播換臉。
開源地址:
github/iperov/DeepFaceLive
聯(lián)系客服