中文字幕理论片,69视频免费在线观看,亚洲成人app,国产1级毛片,刘涛最大尺度戏视频,欧美亚洲美女视频,2021韩国美女仙女屋vip视频

打開APP
userphoto
未登錄

開通VIP,暢享免費(fèi)電子書等14項(xiàng)超值服

開通VIP
智譜AI CEO張鵬:ChatGLM全球超過(guò)百萬(wàn)下載,為行業(yè)智能化降本增效|中國(guó)AIGC產(chǎn)業(yè)峰會(huì)
豐色 整理自 凹非寺
量子位 | 公眾號(hào) QbitAI

眼下,“預(yù)訓(xùn)練大模型是AIGC時(shí)代的基座”這一觀點(diǎn)已成業(yè)界共識(shí)。

但訓(xùn)練一個(gè)千億參數(shù)規(guī)模的大模型,還面臨很多挑戰(zhàn)。

在中國(guó)AIGC產(chǎn)業(yè)峰會(huì)現(xiàn)場(chǎng),智譜AI CEO張鵬就指出,在這方面我們至少面臨三大挑戰(zhàn):

一是成本,如一個(gè)1750億參數(shù)的GPT-3就燒掉了1200萬(wàn)美元(約合人民幣8300萬(wàn)元);

二是人力,一個(gè)谷歌PaLM-530B的作者列表就有近70人,而我國(guó)大模型人才還很欠缺;

三是算法,千億大模型訓(xùn)練過(guò)程極其不穩(wěn)定,一旦出現(xiàn)意外,成本和風(fēng)險(xiǎn)都將額外增加,性能也無(wú)法得到保障。

因此,張鵬認(rèn)為:我們應(yīng)該多給國(guó)產(chǎn)從業(yè)者多一點(diǎn)耐心。

張鵬,畢業(yè)于清華大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)系,現(xiàn)在是北京智譜華章科技有限公司(簡(jiǎn)稱智譜AI)的CEO,公司成立于2019年,從那個(gè)時(shí)候,張鵬就帶領(lǐng)公司瞄向“讓機(jī)器像人一樣思考”的愿景奮斗。幾年來(lái),公司連續(xù)發(fā)布了GLM系列大模型、ChatGLM、CodeGeeX代碼大模型等,已經(jīng)成為國(guó)內(nèi)最早也是最有大模型研發(fā)經(jīng)驗(yàn)的企業(yè)之一。

在本次大會(huì)上,除了關(guān)于預(yù)訓(xùn)練大模型本身的思考,張鵬介紹了智譜AI在該領(lǐng)域的最新研發(fā)和落地進(jìn)展,包括:

(1)可與GPT-3基座模型對(duì)標(biāo)的GLM-130B

(2)只用單個(gè)GPU就能跑起來(lái)的ChatGLM-6B,全球下載量超過(guò)100萬(wàn)

(3)每天幫助程序員“編寫”超過(guò)400萬(wàn)行代碼的輔助編程工具CodeGeeX等

為了完整再現(xiàn)這些精彩內(nèi)容,在不改變?cè)獾幕A(chǔ)上,量子位對(duì)其演講進(jìn)行了編輯整理。

中國(guó)AIGC產(chǎn)業(yè)峰會(huì)是由量子位主辦的行業(yè)峰會(huì),近20位產(chǎn)業(yè)代表與會(huì)討論。線下參與觀眾600 ,線上收看觀眾近 300萬(wàn),得到了包括CCTV2、BTV等在內(nèi)的數(shù)十家媒體的廣泛報(bào)道關(guān)注。

演講要點(diǎn):

  • 預(yù)訓(xùn)練大模型是新一代人工智能應(yīng)用的基礎(chǔ)設(shè)施。

  • 訓(xùn)練高精度千億中英雙語(yǔ)稠密模型,對(duì)大模型研究和應(yīng)用有重大意義。

  • 訓(xùn)練千億大模型的成本高昂,比如1750億參數(shù)的GPT-3總成本就達(dá)1200萬(wàn)美元。

  • 常見的千億級(jí)模型訓(xùn)練數(shù)據(jù)量巨大,訓(xùn)練周期又很長(zhǎng),在這之中不可避免會(huì)有各種各樣的意外發(fā)生。所有這些意外都會(huì)帶來(lái)額外的成本和風(fēng)險(xiǎn),以及不可預(yù)測(cè)的模型性能下降。

  • 開源對(duì)話模型ChatGLM-6B僅僅62億參數(shù),可以在單個(gè)GPU上運(yùn)行起來(lái),意味著稍微好一點(diǎn)的筆記本帶的顯卡就可以。

  • 大模型的智能涌現(xiàn)仍未看到極限……

  • 對(duì)于目前的GPT-4,人類至少在考試上已經(jīng)考不過(guò)它了。

以下為張鵬演講全文:

預(yù)訓(xùn)練大模型是AIGC時(shí)代的基座

AIGC時(shí)代的基座到底是什么?

我相信所有人肯定會(huì)說(shuō)是預(yù)訓(xùn)練大模型。

所謂基座即基礎(chǔ)設(shè)施,為什么它能夠成為基礎(chǔ)設(shè)施?

有兩點(diǎn)原因。

第一,這樣的大模型能夠提供非常強(qiáng)大的通用泛化能力,可完成多場(chǎng)景任務(wù),降低成本、提高效率,這是非常關(guān)鍵的特性。

第二,模型本身的規(guī)模達(dá)到一定程度之后,就能允許我們?cè)诋?dāng)中融入更多的知識(shí),包括跨模態(tài)的知識(shí),使得模型能夠更好地模擬人的智能。

因此,相關(guān)的工作在過(guò)去幾年已經(jīng)成為整個(gè)行業(yè)的研究熱點(diǎn),包括ChatGPT、SD(stable diffusion)等模型所帶來(lái)的生成能力,正是由于這樣的大模型的誕生所衍生出來(lái)的。

在這個(gè)過(guò)程中我們持續(xù)跟蹤技術(shù)前沿,也做了一些相關(guān)的工作,后面我們逐漸展開。

如今我們欣喜地觀察到,大模型能力正在涌現(xiàn)。

為什么量變會(huì)引起智能上的質(zhì)變?

過(guò)去幾年中,大家談大模型的摩爾定律,單模型參數(shù)量每年增長(zhǎng)十倍甚至百倍。

現(xiàn)在,智能涌現(xiàn)程度也呈現(xiàn)摩爾定律,甚至以更高速度發(fā)展。

在這其中,訓(xùn)練高精度千億中英雙語(yǔ)稠密模型,對(duì)大模型研究和應(yīng)用有重大意義。

我們可以看到,過(guò)去三四年中,有很多人來(lái)做相關(guān)的探索和研究。

不光是國(guó)外,我們國(guó)內(nèi)有很多企業(yè)、很多研究團(tuán)體也做了相關(guān)工作,每一個(gè)成功都是今天我們看到的成果的基石,一塊塊磚拼接成最終的基座。

ChatGPT讓大家覺(jué)得非常驚喜,實(shí)際上從基座GPT-3開始到現(xiàn)在經(jīng)歷兩年半時(shí)間,其中很多工作都是在發(fā)掘和誘導(dǎo)基座模型的智能能力。

比如SFT、RLHF等方法都是在誘發(fā)基座模型的能力,這些智能能力已經(jīng)存在于千億基座模型當(dāng)中。

那么,訓(xùn)練千億模型面臨的挑戰(zhàn)有哪些?

訓(xùn)練千億大模型的三大挑戰(zhàn)

第一是訓(xùn)練成本高昂。

比如訓(xùn)練1750億參數(shù)的GPT-3,用到了上萬(wàn)塊V100,機(jī)時(shí)費(fèi)用是460萬(wàn)美元,總成本可達(dá)1200萬(wàn)美元

第二是人力投入極大。

像谷歌PaLM 530B團(tuán)隊(duì),前期準(zhǔn)備29人,訓(xùn)練過(guò)程11人,整個(gè)作者列表68人,但我國(guó)能做大模型的人才不足百人。

光是組建這樣一個(gè)知識(shí)密集型團(tuán)隊(duì)還不夠,還需要成員之間非常緊密的合作。

第三是訓(xùn)練過(guò)程不穩(wěn)定。

常見的千億級(jí)模型訓(xùn)練數(shù)據(jù)量巨大,訓(xùn)練周期又很長(zhǎng),在這之中不可避免會(huì)有各種各樣的意外發(fā)生。

所有這些意外都會(huì)帶來(lái)額外的成本和風(fēng)險(xiǎn),以及不可預(yù)測(cè)的模型性能下降。

所以這方面我們也在一直努力和清華大學(xué)聯(lián)合研究,也提出了自己的一些創(chuàng)新,通過(guò)融合GPT和BERT兩種訓(xùn)練框架解決訓(xùn)練模型問(wèn)題。

去年8月份,我們開源了1300億參數(shù)規(guī)模的雙語(yǔ)預(yù)訓(xùn)練模型GLM-130B。

它不僅英文不輸GPT-3,中文也超出同類模型。

與此同時(shí),模型精度也提高了,還能夠通過(guò)量化壓縮加速等在低成本情況下跑起來(lái)。

大家知道訓(xùn)練大模型很貴,如何讓大家用較低的成本用起來(lái),也是我們作為商業(yè)化公司來(lái)講要考慮的問(wèn)題。

經(jīng)過(guò)我們的努力,不僅能夠讓運(yùn)行成本降低75%,同時(shí)也會(huì)不損失任何的精度和推理的速度,最后還能適配國(guó)產(chǎn)化硬件,給大家提供更好的選擇。

所以這個(gè)開源項(xiàng)目受到全球關(guān)注,很多科研機(jī)構(gòu)、大學(xué)都來(lái)申請(qǐng)使用我們模型進(jìn)行評(píng)測(cè)。

2022年11月,斯坦福大學(xué)大模型中心對(duì)全球30個(gè)主流大模型進(jìn)行了全方位的評(píng)測(cè),GLM-130B是亞洲唯一入選的大模型。

在與OpenAI、谷歌大腦、微軟、英偉達(dá)、臉書的各大模型對(duì)比中,評(píng)測(cè)報(bào)告顯示GLM-130B在準(zhǔn)確性和公平性指標(biāo)上與GPT-3 175B (davinci) 接近或持平,魯棒性、校準(zhǔn)誤差和無(wú)偏性優(yōu)于GPT-3 175B。

GLM-130B是去年8月份的開源項(xiàng)目,9月份我們也開源了另外的項(xiàng)目——CodeGeeX。

我們專門針對(duì)開發(fā)者去設(shè)計(jì)了這樣一款大模型,提供相應(yīng)的服務(wù),他們可以利用這個(gè)模型來(lái)寫代碼,提高他們的生產(chǎn)效率。

CodeGeeX每天線上幫助程序員用戶提供超過(guò)400萬(wàn)行代碼的生成量,大家可以算算相當(dāng)于多少程序員的工作量。

就在今年3月份的時(shí)候,我們終于把GLM-130B升級(jí)到了我們自己的聊天對(duì)話模型ChatGLM。

這個(gè)模型已完成第一階段快速的內(nèi)測(cè),有將近5000人的規(guī)模參與,引起很多關(guān)注。

在人類指令的意圖理解這方面它表現(xiàn)不錯(cuò),它會(huì)比較堅(jiān)持地認(rèn)為它是一個(gè)AI機(jī)器人或者是某種人格的智能體,不會(huì)被用戶隨便混淆。

為了讓更多人加入到大模型體驗(yàn)中來(lái),我們把小一點(diǎn)規(guī)模的ChatGLM-6B,就是62億規(guī)模的模型進(jìn)行了開源。

這個(gè)項(xiàng)目4天就獲得了6K star,昨天已經(jīng)超過(guò)2萬(wàn)star,這是我們發(fā)布的開源項(xiàng)目中star數(shù)增長(zhǎng)速度最快的。

截至4月30日的熱度

這個(gè)項(xiàng)目為什么引起大家的熱捧?

因?yàn)槟P鸵?guī)模僅僅62億參數(shù),可以在單獨(dú)一張GPU上就可以運(yùn)行起來(lái),也就意味著稍微好一點(diǎn)的筆記本帶的顯卡就可以把它跑起來(lái)。

甚至有人還在網(wǎng)絡(luò)平臺(tái)直播怎么玩這個(gè)模型,怎么跑這個(gè)模型,非常有意思。

業(yè)界也做了評(píng)測(cè),與GPT-3.5、GPT-4平行評(píng)測(cè),包括關(guān)于安全性方面測(cè),結(jié)果發(fā)現(xiàn)ChatGLM模型穩(wěn)定性不錯(cuò),安全性也還行。

大模型的智能涌現(xiàn)仍未看到極限

基于以上模型,我們提供商業(yè)化的服務(wù)方式,我們稱之為Model as a Service(MaaS)

它有多種服務(wù)方式,包括端到端的模型訓(xùn)練服務(wù),從開始訓(xùn)練到最后應(yīng)用的開發(fā)和集成都囊括。也可以像OpenAI一樣,提供API調(diào)用服務(wù),也可以把模型以商業(yè)應(yīng)用的方式提供給大家來(lái)進(jìn)行使用,最后還能幫助大家去開發(fā)一些創(chuàng)新的應(yīng)用。

在這樣的理念下,我們提供BigModel.ai的開放平臺(tái),上面有解決方案、產(chǎn)品、好玩的demo、生成內(nèi)容、API請(qǐng)求入口,大家可以了解一下。

具體介紹幾個(gè)產(chǎn)品。

在座有沒(méi)有程序員?

程序員非常喜歡這樣的工具(CodeGeeX),提升大家的工作效率,而且這個(gè)工具是免費(fèi)的,所以大家盡管去試,盡管去用。

其次,文字工作者們也可以用這樣的輔助寫作工具(寫作蛙),完成營(yíng)銷文案、社交媒體內(nèi)容,或者做細(xì)分場(chǎng)景劃分,比如可以用他來(lái)寫一封給我孩子的信,讓他帶到學(xué)校去,在老師同學(xué)們面前念出來(lái),我覺(jué)得寫得比我自己寫的好。

在聊天的場(chǎng)景下(小呆)我們也可以讓它去扮演某一種角色每天跟你聊一會(huì)兒,安慰你的心靈,或者你喜歡一個(gè)可愛的女朋友,你可以設(shè)定一下跟你聊一聊。

商業(yè)落地方面,如美團(tuán)電商平臺(tái),用我們大模型提升廣告推廣以及提高客戶服務(wù)場(chǎng)景下的任務(wù)的性能;世界杯期間我們也服務(wù)了特殊的人群——聽障人士,用手語(yǔ)方式現(xiàn)場(chǎng)實(shí)時(shí)直播,關(guān)愛聽障人士。

未來(lái),大模型能幫大家做很多事情,包括工作、生活甚至創(chuàng)新范式,大模型的快速進(jìn)步給實(shí)現(xiàn)通用人工智能(AGI)帶來(lái)了曙光。讓我們一起多一些期待,多一點(diǎn)耐心,一起擁抱這個(gè)偉大的AI時(shí)代,謝謝大家。

量子位智庫(kù)「中國(guó)AIGC產(chǎn)業(yè)全景報(bào)告」

開放下載!

行業(yè)首份AIGC產(chǎn)業(yè)全景報(bào)告已經(jīng)開放下載!

三大類玩家、四種商業(yè)模式、萬(wàn)億規(guī)模市場(chǎng)、最值得關(guān)注的50家企業(yè),還有具體的賽道部署機(jī)會(huì)和行業(yè)變革機(jī)遇,都將在報(bào)告內(nèi)一一分析呈現(xiàn)。更多產(chǎn)業(yè)洞察,不容錯(cuò)過(guò)。

本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊舉報(bào)
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
ChatGLM:千億基座的對(duì)話模型啟動(dòng)內(nèi)測(cè),單卡版模型已全面開源
4年百億估值,國(guó)產(chǎn)大模型創(chuàng)業(yè)TOP 1,清華造
清華系ChatGPT發(fā)布!唐杰團(tuán)隊(duì)打造,專對(duì)中文優(yōu)化,把握新聞動(dòng)態(tài)
國(guó)產(chǎn)最強(qiáng)開源AI大模型之一,對(duì)標(biāo)ChatGPT:ChatGLM3
騰訊阿里參投,智譜AI完成B-4輪融資 | LongChina50獨(dú)家
國(guó)產(chǎn)AIGC大模型匯總
更多類似文章 >>
生活服務(wù)
熱點(diǎn)新聞
分享 收藏 導(dǎo)長(zhǎng)圖 關(guān)注 下載文章
綁定賬號(hào)成功
后續(xù)可登錄賬號(hào)暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服