內(nèi)容一覽:2022 年 AI 領(lǐng)域發(fā)展不斷提速,新技術(shù)成果紛紛落地,模型迭代加速升級(jí)。本文總結(jié)了 2022 年 AI 領(lǐng)域各大公司的技術(shù)成就。
關(guān)鍵詞:年終盤點(diǎn) 大廠 技術(shù)創(chuàng)新
https://www.toutiao.com/article/7181669988107911735/?log_from=763a2a5a5c6c3_1679754126822
更成熟的AI更破圈的技術(shù)狂歡(AlphaTensor改進(jìn)了目前最優(yōu)的4*4矩陣乘法)
2022 年在此起彼伏的咳嗽聲中接近尾聲,這一年,AIGC 成為人工智能領(lǐng)域最大黑馬,ScienceAI 有了更多實(shí)際落地的應(yīng)用,這一年我們經(jīng)歷了各大廠商縮減預(yù)算、裁撤員工,也體驗(yàn)了絕處逢生的技術(shù)狂歡……
今天,我們將通過這篇文章,與各位同行共同回顧 2022 年那些人工智能領(lǐng)域具有突破性意義的研發(fā)成果。
data2vec
語(yǔ)音、視覺及文本自監(jiān)督學(xué)習(xí)的通用框架
發(fā)布機(jī)構(gòu):Meta AI
發(fā)布時(shí)間:2022 年 1 月
項(xiàng)目地址:
https://github.com/facebookresearch/fairseq/tree/main/examples/data2vec
data2vec 是一個(gè)大一統(tǒng)的多模態(tài)自監(jiān)督學(xué)習(xí)模型,可以以較高的性能處理圖像、文本、語(yǔ)音等任務(wù)。
12 月 16 日 data2vec 2.0 發(fā)布,與現(xiàn)有的計(jì)算機(jī)視覺自監(jiān)督算法相比,相同精度下速度快了 16 倍。
data2vec 2.0 原理簡(jiǎn)介
AlphaCode
競(jìng)賽級(jí)別代碼生成 AI
發(fā)布機(jī)構(gòu):DeepMind
發(fā)布時(shí)間:2022 年 2 月
項(xiàng)目地址:
https://github.com/deepmind/code_contests
AlphaCode 借助大型語(yǔ)言模型,依據(jù)問題的語(yǔ)言描述構(gòu)建代碼。在 Codeforces 挑戰(zhàn)賽中,AlphaCode 擊敗了 46% 的參賽者。該研究不僅登上了 Science 封面,還被該雜志評(píng)入年度十大科學(xué)突破。
AlphaCode 概覽
Dall·E 2
文本到圖像的生成工具
發(fā)布機(jī)構(gòu):OpenAI
發(fā)布時(shí)間:2022 年 4 月
項(xiàng)目地址:https://openai.com/dall-e-2/
Dall·E 2 依據(jù)文本描述,可以創(chuàng)建更加具有現(xiàn)實(shí)主義色彩的藝術(shù)圖像。與 OpenAI 2021 年發(fā)布的 Dall·E 相比,Dall·E 2 可以生成更真實(shí)、更準(zhǔn)確的圖像,且分辨率提高了 4 倍。
An astronaut riding a horse in a photorealistic styleDall·E 2 生成的圖像示例
Gato
全能型智能體
發(fā)布機(jī)構(gòu):DeepMind
發(fā)布時(shí)間:2022 年 5 月
項(xiàng)目地址:
https://www.deepmind.com/blog/a-generalist-agent
Gato 是一個(gè)全能型智能體,可以玩雅達(dá)利游戲、對(duì)圖像進(jìn)行描述、聊天以及根據(jù)上下文決定輸出文本、關(guān)節(jié)扭力或其他 token。
這種通用模型解決所有任務(wù)類似人工智能,最終或超過特定于專門領(lǐng)域的模型。
ESM Fold
蛋白質(zhì)結(jié)構(gòu)預(yù)測(cè)模型
發(fā)布機(jī)構(gòu):Meta AI
發(fā)布時(shí)間:2022 年 7 月
項(xiàng)目地址:
https://github.com/facebookresearch/esm
ESM Fold 是一個(gè)預(yù)測(cè)蛋白質(zhì)序列的模型,能夠直接進(jìn)行高準(zhǔn)確度、端對(duì)端、原子層級(jí)結(jié)構(gòu)預(yù)測(cè)。它僅使用單個(gè)輸入序列,只需查看單個(gè)蛋白質(zhì)序列,這極大加快了推理速度。
用 ESM Fold 進(jìn)行單序列結(jié)構(gòu)預(yù)測(cè)
Make-A-Video
依據(jù)文本生成視頻的 AI 系統(tǒng)
發(fā)布機(jī)構(gòu):MetaAI
發(fā)布時(shí)間:2022 年 9 月
項(xiàng)目地址:https://makeavideo.studio/
Make-A-Video 是一個(gè)文本-視頻生成模型,它通過帶有文字描述的圖像,來(lái)學(xué)習(xí)常用的描述方式,同時(shí)使用無(wú)標(biāo)簽視頻,了解和學(xué)習(xí)移動(dòng)方式。
Make-A-Video 生成的視頻風(fēng)格多樣,對(duì)文本還原度高,是生成短視頻方面的 SOTA 模型。
依據(jù)文本描述生成視頻的部分示例
改進(jìn)矩陣乘法,提升計(jì)算速度
發(fā)布機(jī)構(gòu):DeepMind
發(fā)布時(shí)間:2022 年 10 月
項(xiàng)目地址:
https://github.com/deepmind/alphatensor
AlphaTensor 改進(jìn)了目前最優(yōu)的 4*4 矩陣乘法,并且進(jìn)一步提升了其他 70 余種不同大小矩陣乘法計(jì)算速度。該成果登上了 Nature 封面,被 Scinece 雜志評(píng)入年度十大科學(xué)突破。
AlphaTensor 架構(gòu)一覽
Magic 3D
text-to-3D content 創(chuàng)建工具
發(fā)布機(jī)構(gòu):NVIDIA
發(fā)布時(shí)間:2022 年 11 月
項(xiàng)目地址:
https://deepimagination.cc/Magic3D/
NVIDIA 入局 AIGC,憑文字描述就可生成 3D Mesh 模型。它結(jié)合 image conditioning 技術(shù)以及基于文本提示的編輯方法,提供了一個(gè)控制 3D 合成的新思路,使得創(chuàng)建高質(zhì)量 3D Mesh 模型成為可能。
Magic 3D 通過兩個(gè)階段創(chuàng)建 text-to-3D content
ChatGPT
超級(jí)對(duì)話模型
發(fā)布機(jī)構(gòu):OpenAI
發(fā)布時(shí)間:2022 年 11 月
項(xiàng)目地址:
https://openai.com/blog/chatgpt/
ChatGPT 的訓(xùn)練使用了 RLHF (Reinforcement Learning from Human Feedback),與 InstructGPT 使用的方法相同,僅在數(shù)據(jù)收集設(shè)置上有細(xì)微差別。
ChatGPT 可以像人類一樣聊天交流,完成撰寫郵件、視頻腳本、文案、翻譯及代碼等任務(wù)。自上線以來(lái),引起了海內(nèi)外無(wú)數(shù)開發(fā)者的爭(zhēng)相試用和熱烈討論,堪稱 2022 年開發(fā)人員參與度最高的技術(shù)項(xiàng)目。
ChatGPT 訓(xùn)練過程概覽
Point·E
依據(jù)文本描述生成 3D 點(diǎn)云
發(fā)布機(jī)構(gòu):OpenAI
發(fā)布時(shí)間:2022 年 12 月
項(xiàng)目地址:
https://github.com/openai/point-e
用 Point·E 依據(jù)文本提示生成 3D 點(diǎn)云的過程分為三個(gè)步驟:
1、依據(jù)文本提示,生成一個(gè)合成視圖 (synthetic view)
2、依據(jù)合成視圖,生成 coarse point cloud (1024 point)
3、基于低分辨率點(diǎn)云和合成視圖,生成 fine point cloud (4096 Point)
利用 Point·E 單卡 1 分鐘生成 3D 點(diǎn)云,text-to 3D 告別高算力消耗時(shí)代。
2022 即將畫上句點(diǎn),2023 注定是充滿未知的一年,AIGC 領(lǐng)域會(huì)有哪些新成果?ScienceAI 將如何應(yīng)對(duì)基礎(chǔ)科學(xué)與 AI 交叉帶來(lái)的挑戰(zhàn)?芯片研發(fā)、國(guó)產(chǎn)操作系統(tǒng),又會(huì)產(chǎn)生哪些新突破?
你對(duì) 2023 年人工智能領(lǐng)域的技術(shù)和應(yīng)用有哪些預(yù)判,歡迎留言交流討論~
聯(lián)系客服