中文字幕理论片,69视频免费在线观看,亚洲成人app,国产1级毛片,刘涛最大尺度戏视频,欧美亚洲美女视频,2021韩国美女仙女屋vip视频

打開APP
userphoto
未登錄

開通VIP,暢享免費(fèi)電子書等14項(xiàng)超值服

開通VIP
2022年度盤點(diǎn)更成熟的AI更破圈的技術(shù)狂歡(AlphaTensor改進(jìn)了目前最優(yōu)的4*4矩陣乘法)

內(nèi)容一覽:2022 年 AI 領(lǐng)域發(fā)展不斷提速,新技術(shù)成果紛紛落地,模型迭代加速升級(jí)。本文總結(jié)了 2022 年 AI 領(lǐng)域各大公司的技術(shù)成就。

關(guān)鍵詞:年終盤點(diǎn) 大廠 技術(shù)創(chuàng)新

https://www.toutiao.com/article/7181669988107911735/?log_from=763a2a5a5c6c3_1679754126822


更成熟的AI更破圈的技術(shù)狂歡(AlphaTensor改進(jìn)了目前最優(yōu)的4*4矩陣乘法)

2022 年在此起彼伏的咳嗽聲中接近尾聲,這一年,AIGC 成為人工智能領(lǐng)域最大黑馬,ScienceAI 有了更多實(shí)際落地的應(yīng)用,這一年我們經(jīng)歷了各大廠商縮減預(yù)算、裁撤員工,也體驗(yàn)了絕處逢生的技術(shù)狂歡……

今天,我們將通過這篇文章,與各位同行共同回顧 2022 年那些人工智能領(lǐng)域具有突破性意義的研發(fā)成果。

data2vec

語(yǔ)音、視覺及文本自監(jiān)督學(xué)習(xí)的通用框架

發(fā)布機(jī)構(gòu):Meta AI

發(fā)布時(shí)間:2022 年 1 月

項(xiàng)目地址:

https://github.com/facebookresearch/fairseq/tree/main/examples/data2vec

data2vec 是一個(gè)大一統(tǒng)的多模態(tài)自監(jiān)督學(xué)習(xí)模型,可以以較高的性能處理圖像、文本、語(yǔ)音等任務(wù)。

12 月 16 日 data2vec 2.0 發(fā)布,與現(xiàn)有的計(jì)算機(jī)視覺自監(jiān)督算法相比,相同精度下速度快了 16 倍。

data2vec 2.0 原理簡(jiǎn)介

AlphaCode

競(jìng)賽級(jí)別代碼生成 AI

發(fā)布機(jī)構(gòu):DeepMind

發(fā)布時(shí)間:2022 年 2 月

項(xiàng)目地址:

https://github.com/deepmind/code_contests

AlphaCode 借助大型語(yǔ)言模型,依據(jù)問題的語(yǔ)言描述構(gòu)建代碼。在 Codeforces 挑戰(zhàn)賽中,AlphaCode 擊敗了 46% 的參賽者。該研究不僅登上了 Science 封面,還被該雜志評(píng)入年度十大科學(xué)突破。

AlphaCode 概覽

Dall·E 2

文本到圖像的生成工具

發(fā)布機(jī)構(gòu):OpenAI

發(fā)布時(shí)間:2022 年 4 月

項(xiàng)目地址:https://openai.com/dall-e-2/

Dall·E 2 依據(jù)文本描述,可以創(chuàng)建更加具有現(xiàn)實(shí)主義色彩的藝術(shù)圖像。與 OpenAI 2021 年發(fā)布的 Dall·E 相比,Dall·E 2 可以生成更真實(shí)、更準(zhǔn)確的圖像,且分辨率提高了 4 倍。

An astronaut riding a horse in a photorealistic styleDall·E 2 生成的圖像示例

Gato

全能型智能體

發(fā)布機(jī)構(gòu):DeepMind

發(fā)布時(shí)間:2022 年 5 月

項(xiàng)目地址:

https://www.deepmind.com/blog/a-generalist-agent

Gato 是一個(gè)全能型智能體,可以玩雅達(dá)利游戲、對(duì)圖像進(jìn)行描述、聊天以及根據(jù)上下文決定輸出文本、關(guān)節(jié)扭力或其他 token。

這種通用模型解決所有任務(wù)類似人工智能,最終或超過特定于專門領(lǐng)域的模型。

ESM Fold

蛋白質(zhì)結(jié)構(gòu)預(yù)測(cè)模型

發(fā)布機(jī)構(gòu):Meta AI

發(fā)布時(shí)間:2022 年 7 月

項(xiàng)目地址:

https://github.com/facebookresearch/esm

ESM Fold 是一個(gè)預(yù)測(cè)蛋白質(zhì)序列的模型,能夠直接進(jìn)行高準(zhǔn)確度、端對(duì)端、原子層級(jí)結(jié)構(gòu)預(yù)測(cè)。它僅使用單個(gè)輸入序列,只需查看單個(gè)蛋白質(zhì)序列,這極大加快了推理速度。

用 ESM Fold 進(jìn)行單序列結(jié)構(gòu)預(yù)測(cè)

Make-A-Video

依據(jù)文本生成視頻的 AI 系統(tǒng)

發(fā)布機(jī)構(gòu):MetaAI

發(fā)布時(shí)間:2022 年 9 月

項(xiàng)目地址:https://makeavideo.studio/

Make-A-Video 是一個(gè)文本-視頻生成模型,它通過帶有文字描述的圖像,來(lái)學(xué)習(xí)常用的描述方式,同時(shí)使用無(wú)標(biāo)簽視頻,了解和學(xué)習(xí)移動(dòng)方式。

Make-A-Video 生成的視頻風(fēng)格多樣,對(duì)文本還原度高,是生成短視頻方面的 SOTA 模型。

依據(jù)文本描述生成視頻的部分示例

改進(jìn)矩陣乘法,提升計(jì)算速度

發(fā)布機(jī)構(gòu):DeepMind

發(fā)布時(shí)間:2022 年 10 月

項(xiàng)目地址:

https://github.com/deepmind/alphatensor

AlphaTensor 改進(jìn)了目前最優(yōu)的 4*4 矩陣乘法,并且進(jìn)一步提升了其他 70 余種不同大小矩陣乘法計(jì)算速度。該成果登上了 Nature 封面,被 Scinece 雜志評(píng)入年度十大科學(xué)突破。

AlphaTensor 架構(gòu)一覽

Magic 3D

text-to-3D content 創(chuàng)建工具

發(fā)布機(jī)構(gòu):NVIDIA

發(fā)布時(shí)間:2022 年 11 月

項(xiàng)目地址:

https://deepimagination.cc/Magic3D/

NVIDIA 入局 AIGC,憑文字描述就可生成 3D Mesh 模型。它結(jié)合 image conditioning 技術(shù)以及基于文本提示的編輯方法,提供了一個(gè)控制 3D 合成的新思路,使得創(chuàng)建高質(zhì)量 3D Mesh 模型成為可能。

Magic 3D 通過兩個(gè)階段創(chuàng)建 text-to-3D content

ChatGPT

超級(jí)對(duì)話模型

發(fā)布機(jī)構(gòu):OpenAI

發(fā)布時(shí)間:2022 年 11 月

項(xiàng)目地址:

https://openai.com/blog/chatgpt/

ChatGPT 的訓(xùn)練使用了 RLHF (Reinforcement Learning from Human Feedback),與 InstructGPT 使用的方法相同,僅在數(shù)據(jù)收集設(shè)置上有細(xì)微差別。

ChatGPT 可以像人類一樣聊天交流,完成撰寫郵件、視頻腳本、文案、翻譯及代碼等任務(wù)。自上線以來(lái),引起了海內(nèi)外無(wú)數(shù)開發(fā)者的爭(zhēng)相試用和熱烈討論,堪稱 2022 年開發(fā)人員參與度最高的技術(shù)項(xiàng)目。

ChatGPT 訓(xùn)練過程概覽

Point·E

依據(jù)文本描述生成 3D 點(diǎn)云

發(fā)布機(jī)構(gòu):OpenAI

發(fā)布時(shí)間:2022 年 12 月

項(xiàng)目地址:

https://github.com/openai/point-e

用 Point·E 依據(jù)文本提示生成 3D 點(diǎn)云的過程分為三個(gè)步驟

1、依據(jù)文本提示,生成一個(gè)合成視圖 (synthetic view)

2、依據(jù)合成視圖,生成 coarse point cloud (1024 point)

3、基于低分辨率點(diǎn)云和合成視圖,生成 fine point cloud (4096 Point)

利用 Point·E 單卡 1 分鐘生成 3D 點(diǎn)云,text-to 3D 告別高算力消耗時(shí)代。

冬去春來(lái),暢想 2023

2022 即將畫上句點(diǎn),2023 注定是充滿未知的一年,AIGC 領(lǐng)域會(huì)有哪些新成果?ScienceAI 將如何應(yīng)對(duì)基礎(chǔ)科學(xué)與 AI 交叉帶來(lái)的挑戰(zhàn)?芯片研發(fā)、國(guó)產(chǎn)操作系統(tǒng),又會(huì)產(chǎn)生哪些新突破?

你對(duì) 2023 年人工智能領(lǐng)域的技術(shù)和應(yīng)用有哪些預(yù)判,歡迎留言交流討論~

本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊舉報(bào)。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
一文看盡SOTA生成式模型:9大類別21個(gè)模型全回顧!
一文看盡2020全年AI技術(shù)突破
分享200+個(gè)關(guān)于AI的網(wǎng)站
人工智能與深度學(xué)習(xí)技術(shù)16大回顧,承包你一年的知識(shí)點(diǎn)
Top10機(jī)器學(xué)習(xí)開源項(xiàng)目發(fā)布,歷時(shí)一個(gè)月評(píng)出 | 附GitHub地址
從Pix2Code到CycleGAN:2017年深度學(xué)習(xí)重大研究進(jìn)展全解讀
更多類似文章 >>
生活服務(wù)
熱點(diǎn)新聞
分享 收藏 導(dǎo)長(zhǎng)圖 關(guān)注 下載文章
綁定賬號(hào)成功
后續(xù)可登錄賬號(hào)暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服