ChatGPT可以做什么?可以取代Jack寫文章,通過Jack過去文章的學(xué)習(xí),AI可以總結(jié)出Jack寫文章的結(jié)構(gòu)和套路。之后可以輸入文章的核心以及相關(guān)數(shù)據(jù),他可以快速形成Jack的文章;可以取代Jack上班做PPT,特別是匯報總結(jié)類的PPT,它都可以快速形成。
這是真的,顯然ChatGPT這類通用AI大模型未來可以顛覆很多東西。那么對于ChatGPT這類技術(shù)還真應(yīng)該了解。
所以本文結(jié)合相關(guān)信息,進(jìn)行總結(jié)
- ChatGPT國內(nèi)外有哪些同類產(chǎn)品?
幫助自我認(rèn)知學(xué)習(xí),也希望能夠給大家?guī)硪恍┬畔⒑蛦l(fā)。
什么是ChatGPT,他能夠干什么?
ChatGPT,首先回歸它英語的意思Chat就是聊天,GPT是Generative Pre-trained Transformer的縮寫,翻譯成生成式預(yù)先訓(xùn)練的Transformer,Transformer是完全基于自注意力機制的一個深度學(xué)習(xí)模型。所以ChatGPT是可以聊天的生成式的、預(yù)先訓(xùn)練好的算法模型。它屬于當(dāng)前火熱的生成式AI人工智能模型,也就是AI生成人類內(nèi)容。
ChatGPT對于普通的使用者是一種人工智能聊天機器人,當(dāng)前主要基于文字聊天,它使用高級自然語言處理(NLP) 與人類進(jìn)行逼真的對話。目前ChatGPT 可以生成文章、虛構(gòu)故事、詩歌甚至計算機代碼。ChatGPT 還可以回答問題、參與對話,在某些情況下,還可以對非常具體的問題和查詢提供詳細(xì)的答復(fù)。其實聊天機器人可不算什么新鮮玩意,它通過關(guān)鍵詞搜索技術(shù),然后匹配回答,這個在我們?nèi)粘I钪泻艹R?,比如說亞馬遜的Alexa,蘋果的SIRI,天貓精靈,百度小度等等還有不少在線客服,甚至我們熟悉的汽車語言控制《汽車AI智能語音101及其供應(yīng)鏈》,他們主要是基于任務(wù)的命令式語音助手。但是ChatGPT確是采用更加精致的大數(shù)據(jù)訓(xùn)練模型,應(yīng)用范圍更廣,可以集成到各種應(yīng)用中。ChatGPT 有別于其他聊天機器人和 NLP 系統(tǒng)的一件事是其超現(xiàn)實的對話技巧,包括提出后續(xù)問題、承認(rèn)錯誤和指出主題細(xì)微差別的能力。在許多情況下,基本上如果不是告訴你,人類是很難檢測到自己是正在與計算機生成的機器人進(jìn)行交互。語法和語法錯誤很少見,書面結(jié)構(gòu)合乎邏輯且清晰。- 生成模仿輸入數(shù)據(jù)的樣式和結(jié)構(gòu)的類人文本
- 生成對給定提示或輸入文本的響應(yīng)。這可能包括寫故事或回答問題。
- 提出澄清問題以更好地理解輸入數(shù)據(jù)的意圖
- 回復(fù)與對話上下文一致的文本,例如提供后續(xù)說明或理解對先前問題的引用
其他生成式 AI 模型可以對圖像、聲音和視頻執(zhí)行類似的任務(wù)。另外ChatGPT可以進(jìn)行微調(diào)訓(xùn)練:通過在較小的相關(guān)數(shù)據(jù)集上進(jìn)行訓(xùn)練,使 LLM 適應(yīng)特定任務(wù)或領(lǐng)域的過程,這也是ChatGPT目前拓展的商業(yè)模式,某個細(xì)分領(lǐng)域的應(yīng)用例如專業(yè)的法律顧問,專業(yè)的汽車智庫專家。ChatGPT 是 OpenAI 的最新語言模型NLP(Natural language processing),它是基于大型語言模型LLM(Large Language Model )模型GPT-3 加上使用監(jiān)督學(xué)習(xí)和人類反饋強化學(xué)習(xí) RLHF(Reinforcement Learning from Human Feedback) 的特殊技術(shù)來微調(diào) ChatGPT形成。- NLP(Natural language processing)自然語音處理
- LLM(Large Language Model )大型語言模型
- RLHF(Reinforcement Learning from Human Feedback) 人類反饋中的強化學(xué)習(xí)
NLP自然語言處理,就是人類語言與計算機之間的交互,范圍比較大例如之前《汽車AI智能語音101及其供應(yīng)鏈》大概分享過。NLP領(lǐng)域流行的技術(shù)是深度學(xué)習(xí)模型,主要依托于以下幾項關(guān)鍵技術(shù):魔改的LSTM模型及少量的改進(jìn)CNN模型,RNN作為典型的特征抽取器;以Sequence to Sequence(或叫encoder-decoder亦可)+Attention作為各種具體任務(wù)典型的總體技術(shù)框架。LLM大型語言模型,就是目前ChatGPT所屬的模型,是人工智能的一個子集,顧名思義“大“,就是海量數(shù)據(jù),它已經(jīng)在大量文本數(shù)據(jù)(例如ChatGPT的拓展基礎(chǔ)ChatGPT3.0 的數(shù)據(jù)背后是整個互聯(lián)網(wǎng)和幾百萬本書大概3千億文字)上進(jìn)行了訓(xùn)練,可以對對話或其他自然語言輸入產(chǎn)生類似人類的反應(yīng)。- 詞嵌入:LLM 中使用的一種算法,以數(shù)字形式表示詞的含義,以便將其輸入 AI 模型并由其處理,通過將單詞映射到高維空間中的向量來實現(xiàn)的,其中具有相似含義的單詞靠得更近。
- 注意機制:LLM 中使用的一種算法,它使 AI 在生成輸出時能夠?qū)W⒂谳斎胛谋镜奶囟ú糠郑缥谋局信c情感相關(guān)的詞。這樣使LLM 考慮給定輸入的上下文或情緒,從而產(chǎn)生更連貫和準(zhǔn)確的響應(yīng)。
- Transformers:LLM 研究中流行的一種神經(jīng)網(wǎng)絡(luò)架構(gòu),它使用自注意力機制來處理輸入數(shù)據(jù),從而使它們能夠有效地捕獲人類語言中的長期依賴關(guān)系。
Transformer 經(jīng)過訓(xùn)練可以分析輸入數(shù)據(jù)的上下文,并相應(yīng)地對數(shù)據(jù)的每一部分的重要性進(jìn)行加權(quán)。由于這種類型的模型學(xué)習(xí)上下文,它通常用于自然語言處理 (NLP)以生成類似于人類書寫的文本。大型語言模型(例如 GPT-3)根據(jù)來自互聯(lián)網(wǎng)的大量文本數(shù)據(jù)進(jìn)行訓(xùn)練,能夠生成類似人類的文本,事實上,他們的目標(biāo)函數(shù)是單詞序列(或標(biāo)記序列)的概率分布,使他們能夠預(yù)測序列中的下一個單詞是什么(下面有更多詳細(xì)信息),所以它們可能并不總是產(chǎn)生與人類期望或理想值一致的輸出。然而,在實際應(yīng)用中,LLM模型訓(xùn)練的目的是執(zhí)行某種形式的有價值的認(rèn)知工作,并且這些模型的訓(xùn)練方式與我們希望使用它們的方式之間存在明顯差異。盡管從數(shù)學(xué)上講,機器計算出的單詞序列的統(tǒng)計分布可能是對語言建模的一種非常有效的選擇,但作為人類,我們通過選擇最適合給定情況的文本序列來生成語言,并使用我們的背景知識和常識來指導(dǎo)這個流程。當(dāng)語言模型用于需要高度信任或可靠性的應(yīng)用程序(例如對話系統(tǒng)或智能個人助理)時,LLM的表現(xiàn)的問題就有:但 ChatGPT 的創(chuàng)建者究竟是如何利用人類反饋來解決對齊問題的呢?這時就需要對LLM進(jìn)行RLHF(Reinforcement Learning from Human Feedback) 人類反饋中的強化學(xué)習(xí)。- 有監(jiān)督的微調(diào)步驟:首先類似于自動駕駛標(biāo)記,先人工標(biāo)記者寫下預(yù)期的輸出響應(yīng)去訓(xùn)練LLM例如ChatGPT就是微調(diào)GPT-3.5 系列。但是顯然人工標(biāo)記成本很高,也聽說Open AI資本投資不少在這個方面,所以監(jiān)督學(xué)習(xí)步驟的可擴展性成本很高。
- “模仿人類偏好”步驟:這個階段人工標(biāo)記者被要求對相對大量的 SFT 模型輸出進(jìn)行投票,這樣就創(chuàng)建了一個由比較數(shù)據(jù)組成的新數(shù)據(jù)集。在此數(shù)據(jù)集上訓(xùn)練了一個新模型。這稱為獎勵模型 (RM)。對于貼標(biāo)機來說,對輸出進(jìn)行排序比從頭開始生產(chǎn)要容易得多,這個過程可以更有效地擴大規(guī)模。
- Proximal Policy Optimization (PPO) 步驟:它是獎勵模型用于進(jìn)一步微調(diào)和改進(jìn) SFT 模型的步驟,這一步的結(jié)果就是所謂的政策模型,會根據(jù)代理正在采取的行動和收到的獎勵不斷調(diào)整當(dāng)前策略,而且它將策略的變化限制在與先前策略的一定距離內(nèi)。
所以在基于人工標(biāo)注者輸入的基礎(chǔ)上進(jìn)行不斷強化的訓(xùn)練,本質(zhì)上他們賦予了ChatGPT的回答。有了RLHF人類反饋中的強化學(xué)習(xí),ChatGPT在訓(xùn)練循環(huán)中使用人類反饋來最大限度地減少有害、不真實和/或有偏見的輸出。當(dāng)然有了算法,還需要儲存處理數(shù)據(jù)和運算處理的計算中心,ChatGPT背后的計算中心是微軟的Azure云計算中心。那么如此強大的ChatGPT的局限性在熟悉了它背后的核心技術(shù)之后可能就明白了,它是基于人類語言文字超大數(shù)據(jù)積累訓(xùn)練而來,它無法具備思維和創(chuàng)新,主要是基于過去被訓(xùn)練的數(shù)據(jù)組合而來。另外對于準(zhǔn)確性來講,當(dāng)前使語言模型更準(zhǔn)確的兩個核心相關(guān)的功能:所以ChatGPT的答案僅限于已經(jīng)存儲在其訓(xùn)練的信息中,例如我們現(xiàn)在用的ChatGPT就是基于2021年之前的網(wǎng)絡(luò)數(shù)據(jù)以及相關(guān)書本知識進(jìn)行學(xué)習(xí)訓(xùn)練的。在其靜態(tài)權(quán)重中捕獲。(這就是為什么它無法討論 2021 年之后發(fā)生的事件,當(dāng)時模型已經(jīng)過訓(xùn)練。),如果能夠從外部來源獲取信息將使 LLM 能夠訪問最準(zhǔn)確和最新的可用信息,即使當(dāng)該信息經(jīng)常變化時(例如,公司的股票價格),但顯然目前不行。另外就是人工強化訓(xùn)練的人工標(biāo)注者賦予的微調(diào),也是當(dāng)前ChatGPT的局限所在,首先ChatGPT擺脫不了人工標(biāo)注者的影子例如立場,偏好等。ChatGPT國內(nèi)外有哪些同類產(chǎn)品?那么類似于ChatGPT是不是就一枝獨秀?其他人都沒有此類產(chǎn)品?其實如上文講到ChatGPT屬于LLM大型語言模型一種,大型語言模型其實在很多互聯(lián)網(wǎng)公司都有,至于為什么是新勢力Open AI先釋放引起轟動,其實對于傳統(tǒng)勢力來講最怕犯錯,所以給了新勢力勇敢試錯的機會。其實國外著名的語言模型除了來自 OpenAI的GPT-3 、還有:- Nvidia/Microsoft 的Megatron-Turing、
AI21 Labs 的Jurassic-1
當(dāng)然除了以上國外的Amazon、Microsoft、GitHub、Apple、IBM等也構(gòu)建了提供不同特性和功能的自然語言處理框架。其中包括數(shù)字助理、預(yù)測編碼工具和聊天機器人,也包含大型語言模型。
國內(nèi)的Baidu已投入開發(fā)類似ChatGPT的相關(guān)技術(shù),該項目名字確定為文心一言,英文名ERNIE Bot,3月份完成內(nèi)測后面向公眾開放。目前,文心一言在做上線前的沖刺。阿里巴巴,根據(jù)其內(nèi)部一名資深技術(shù)專家爆料,阿里達(dá)摩院正在研發(fā)類ChatGPT的對話機器人,目前已開放給公司內(nèi)員工測試。另外人工智能聊天軟件在國內(nèi)各大應(yīng)用平臺上并不陌生,如微信官方的小冰,字節(jié)跳動旗下的猜猜,騰訊的DOGE,訊飛語音小秘書,圖靈機器人等。但這些都不具備如ChatGPT的人工智能效應(yīng),大多數(shù)并未達(dá)到良好的用戶體驗。但現(xiàn)今有了ChatGPT的成功案例,估計會引發(fā)一波國內(nèi)語言聊天軟件和硬件的升級。但算法的差距,有國內(nèi)某技術(shù)大佬說,中國和國外相差兩年以上。那么對于,我們熟悉的汽車行業(yè)呢?ChatGPT對于汽車產(chǎn)品和技術(shù)有什么影響?先問問萬能的ChatGPT。首先從產(chǎn)品上來講,改變語音控制,改變汽車語音助手可能是最快和最直接的方式了,大模型下的語言訓(xùn)練,可以通過微調(diào)進(jìn)入汽車領(lǐng)域用于汽車語音識別系統(tǒng),幫助駕駛員實現(xiàn)語音控制,如語音導(dǎo)航,電話,音樂等。最典型的有通用的安吉星服務(wù),未來恐怕只需要ChatGPT了。另外座艙語音助手可能兼容座艙控制和聊天服務(wù),變得更加智能和人性化聊天,達(dá)到我之前座艙文章《智能座艙系列文一,他到底是什么?》中描述的更加懂人類。之后從汽車客戶服務(wù)上來講,幫助提供快速,準(zhǔn)確和個性化的客戶服務(wù),從而提高客戶滿意度。以后的客服電話恐怕都會快速向ChatGPT類似方案靠攏。所以,從產(chǎn)品應(yīng)用上來講,ChatGPT短期內(nèi)催生汽車語言控制的升級,催生更加智能的語言助手。產(chǎn)品開發(fā)流程上來講可能催生車企內(nèi)部的知識流程積累。從產(chǎn)品服務(wù)上來講,ChatGPT短期內(nèi)會改變售前售后的客服方式,長期可能也改變售后維修診斷方式。
至于對于汽車技術(shù)的影響,以語言算法Transformer為基礎(chǔ)的ChatGPT獲得了極大的轟動,那么無疑給基于視覺算法為基礎(chǔ)的智能駕駛一劑強心劑,畢竟當(dāng)前智能駕駛的圖像算法很多是借鑒自更前一步的語言算法。例如Transformer最早被特斯拉應(yīng)用在其智能駕駛上,目前基本上國內(nèi)所有智能駕駛的算法都在朝這個方向跑。最后Meta AI 負(fù)責(zé)人楊立昆Yann LeCun近日表示:“就底層技術(shù)而言,ChatGPT 并沒有特別的創(chuàng)新。這不是革命性的,盡管這是公眾對它的看法。只是,你知道,它組合得很好,做得很好?!?/span>AI人工智能的底層三大件,數(shù)據(jù),算力,算法的發(fā)展給ChatGPT的出現(xiàn)提供了爆發(fā)的基礎(chǔ),Open AI 將它組合的很好,不但是算法而且還包括了算力,數(shù)據(jù)。- 數(shù)據(jù)方面,互聯(lián)網(wǎng)的幾十年高速發(fā)展,積累了海量人類的文本。
- 算法,從神經(jīng)元算法起步,到Transformer 等各類算法的爐火純青的應(yīng)用。
所以AI底層三大件的發(fā)展,一定會催生出更多類似于ChatGPT的通用人工智能應(yīng)用,但我們更應(yīng)該關(guān)注底層三大件的發(fā)展,未來數(shù)據(jù)類似于寶藏和礦產(chǎn),例如Jack的文章就是私人數(shù)據(jù)和寶藏,一定可以微調(diào)一個數(shù)據(jù)模型用來套任何課題;芯片算力,成了決勝AI的大器,沒有芯片那么數(shù)據(jù)礦產(chǎn)無法挖掘;算法,猶如礦藏提純配方。未來做好AI三大件的工作,才能在AI時代贏得紅利。
參考文章以及圖片
Training language models to follow instructions with human feedback - Long Ouyang等
DistilBERT, a distilled version of BERT: smaller, faster, cheaper and lighter - Victor SANH等
本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請
點擊舉報。