中文字幕理论片,69视频免费在线观看,亚洲成人app,国产1级毛片,刘涛最大尺度戏视频,欧美亚洲美女视频,2021韩国美女仙女屋vip视频

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
ChatGPT出來后,我們是否真的面臨范式轉(zhuǎn)變?
卷友們好,我是rumor。
上周轉(zhuǎn)發(fā)了符堯大佬拆解GPT3起源的文章,收到了很多好評,同時也讓我們開始思考:
是否只有大模型能訓(xùn)出ChatGPT?小模型+精調(diào) vs 大模型+提示詞,哪個更好?Prompt已經(jīng)火了一年多,然而真正在生產(chǎn)中應(yīng)用的還是少數(shù),我們是否真的面臨范式轉(zhuǎn)變?如果真需要大模型,得多大?
正好的是,符堯在ChatGPT出來之前就寫過一篇深度分析大模型能力的文章,于是在我們的共同努力下把該文翻譯成了中文,希望可以解答大家對大模型的一些困惑。
英文原版:https://franxyao.github.io/blog.html
作者:符堯,yao.fu@ed.ac.uk,愛丁堡大學(xué) (University of Edinburgh) 博士生,本科畢業(yè)于北京大學(xué)與Tushar Khot,彭昊 在艾倫人工智能研究院 (Allen Institute for AI) 共同完成英文原稿
與 李如寐(美團NLP中心)共同翻譯為中文,感謝 Aristo teammates, Jingfeng Yang, 和 Yi Tay 的討論與建議。
請同時參考CoT[1]團隊的博客。
正文
最近,人們對大型語言模型所展示的強大能力(例如思維鏈[2]、便簽本[3])產(chǎn)生了極大的興趣,并開展了許多工作。我們將之統(tǒng)稱為大模型的突現(xiàn)能力[4],這些能力可能只存在于大型模型中,而不存在于較小的模型中,因此稱為“突現(xiàn)”。其中許多能力都非常令人印象深刻,比如復(fù)雜推理、知識推理和分布外魯棒性,我們將在后面詳細討論。值得注意的是,這些能力很接近 NLP 社區(qū)幾十年來一直尋求的能力,因此代表了一種潛在的研究范式轉(zhuǎn)變,即從微調(diào)小模型到使用大模型進行上下文學(xué)習(xí)。對于先行者來說,范式轉(zhuǎn)變可能是很顯然的。然而,出于科學(xué)的嚴謹性,我們確實需要非常明確的理由來說明為什么人們應(yīng)該轉(zhuǎn)向大型語言模型,即使這些模型昂貴、難以使用,并且效果可能一般。在本文中,我們將仔細研究這些能力是什么,大型語言模型可以提供什么,以及它們在更廣泛的 NLP/ML 任務(wù)中的潛在優(yōu)勢是什么。
前提:我們假設(shè)讀者具備以下知識:
預(yù)訓(xùn)練、精調(diào)、提示(普通從業(yè)者應(yīng)具備的自然語言處理/深度學(xué)習(xí)能力)
思維鏈提示、便簽本(普通從業(yè)者可能不太了解,但不影響閱讀)
存在于大模型而非小模型的突現(xiàn)能力
圖片來自于 Wei. et. al. 2022. Chain-of-Thought Prompting Elicits Reasoning in Large Language Models。X軸為模型尺寸。GSM8K是是一個小學(xué)水平的數(shù)學(xué)問題集。
在以上的效果圖中,我們可以觀察到模型的表現(xiàn):
當(dāng)尺寸相對小的時候提升并不大
當(dāng)模型變大時有很明顯的提升
這從根本上說明,某些能力可能不存在于小模型中,而是在大模型中獲得的。
有很多種突現(xiàn)能力,比如 Wei 等人在 2022年[5]所梳理的。有些能力很有意思,但我們在本文不會討論,比如last latter concatenation,我們認為這是Python而不是語言模型要做的任務(wù);或者3位數(shù)加法,我們認為這是計算器而不是語言模型要做的事。
在本文中,我們主要對以下能力感興趣:
NLP 社區(qū)近幾年都關(guān)注但還沒實現(xiàn)的能力
之前的 NLP 模型很難達到的能力
源自于人類語言最深層的本質(zhì)的能力
可能達到人類智力的最高水平的能力
突現(xiàn)能力的三個典型例子
很多有意思的能力都可以歸到上文提到的類別里,在它們之中,我們主要討論以下三種典型能力:
復(fù)雜推理
知識推理
分布外魯棒性
接下來讓我們一個個詳細討論。
復(fù)雜推理
下面是一個GSM8K數(shù)據(jù)集中,用提示詞顯著超過精調(diào)的例子:
問題:
克萊兒每天早飯都用 3 顆蛋做蛋卷,她 4 周會吃掉多少打雞蛋?
克萊兒每天早飯都用3顆蛋做蛋卷。
一周有 7 天。
所以她一周會吃 3 * 7 = 21 顆蛋。
她4周會吃掉 4 * 21 = 84 顆蛋。
一打里面是 12 顆蛋。
所以 84 / 12 = 7。
答案是7。
雖然這道題對于10歲的孩子來說很容易,但對語言模型來說卻很難,主要是由于數(shù)學(xué)和語言混合在一起。
GSM8K 最初由 OpenAI 于 2021 年 10 月[6]提出。當(dāng)時他們用第一版GPT3在全部訓(xùn)練集上進行了精調(diào),準確率約為 35%。這個結(jié)果讓作者相當(dāng)悲觀,因為他們的結(jié)果顯示了語言模型的縮放規(guī)律:隨著模型大小呈指數(shù)增長,性能呈線性增長(我之后會討論)。因此,他們在第 4.1 節(jié)中思考:
“175B 模型似乎需要至少額外兩個數(shù)量級的訓(xùn)練數(shù)據(jù)才能達到 80% 的求解率?!比齻€月后,即 2022 年 1 月,Wei 等人[7]基于 540B PaLM 模型,僅使用了8個思維鏈提示示例便將準確率提高到56.6% (無需將訓(xùn)練集增加兩個數(shù)量級)。之后在 2022 年 3 月,Wang 等人[8]基于相同的 540B PaLM 模型,通過多數(shù)投票的方法將準確率提高到 74.4% 。當(dāng)前的 SOTA 來自我自己在 AI2 的工作(Fu et. al. Nov 2022[9]),我們通過使用復(fù)雜的思維鏈在 175B Codex 上實現(xiàn)了 82.9% 的準確率。從以上進展可以看到,技術(shù)進步確實呈指數(shù)級增長。
思維鏈提示是一個展示模型隨著規(guī)模突現(xiàn)出能力的典型例子:
從突現(xiàn)能力來看:盡管不需要 17500B,但模型大小確實要大于 100B ,才能使思維鏈的效果大于的僅有回答提示。所以這種能力只存在于大型模型中。
從效果來看:思想鏈提示的性能明顯優(yōu)于其之前的精調(diào)方法(目前還沒有能公平對比提示詞和微調(diào)的工作。但當(dāng)思維鏈被提出的時候,盡管他們對于提示和精調(diào)的比較可能是不公平的,但確實比精調(diào)效果要好)。
從標注效率上來看:思維鏈提示只需要 8 個示例的注釋,而微調(diào)需要完整的訓(xùn)練集。
有些同學(xué)可能會認為模型能做小學(xué)數(shù)學(xué)代表不了什么(從某種意義上說,他們確實沒有那么酷)。但 GSM8K 只是一個開始,最近的工作已經(jīng)把前沿問題推向了高中[10]、大學(xué)[11],甚至是國際數(shù)學(xué)奧林匹克問題[12]。現(xiàn)在更酷了嗎?
知識推理
下一個例子是需要知識的推理能力(例如問答和常識推理)。在這種情況下,對大型模型進行提示不一定優(yōu)于精調(diào)小型模型(哪個模型更好還有待觀察)。但是這個情況下的注釋效率被放大了,因為:
在許多數(shù)據(jù)集中,為了獲得所需的背景/常識知識,(以前很小的)模型需要一個外部語料庫/知識圖譜來檢索[13],或者需要通過多任務(wù)學(xué)習(xí)在增強[14]的數(shù)據(jù)上進行訓(xùn)練
對于大型語言模型,可以直接去掉檢索器[15],僅依賴模型的內(nèi)部知識[16],且無需精調(diào)
圖片來自于 Yu et. al. 2022. 以前的 SOTA 模型需要從外部知識源中檢索。GPT-3 的性能與以前的模型相當(dāng)/優(yōu)于以前的模型,且無需檢索。
如表中所示,與數(shù)學(xué)題的例子不同,GPT-3 并沒有明顯優(yōu)于之前的精調(diào)模型。但它不需要從外部文檔中檢索,本身就包含了知識(雖然這些知識可能過時或者不可信,但選擇哪種可信知識源超出了本文的討論范圍)。
為了理解這些結(jié)果的重要性,我們可以回顧一下歷史:NLP 社區(qū)從一開始就面臨著如何有效編碼知識的挑戰(zhàn)。人們一直在不斷探究把知識保存在模型外部或者內(nèi)部的方法。上世紀九十年代以來,人們一直試圖將語言和世界的規(guī)則記錄到一個巨大的圖書館中,將知識存儲在模型之外。但這是十分困難的,畢竟我們無法窮舉所有規(guī)則。因此,研究人員開始構(gòu)建特定領(lǐng)域的知識庫,來存儲非結(jié)構(gòu)化文本、半結(jié)構(gòu)化(如維基百科)或完全結(jié)構(gòu)化(如知識圖譜)等形式的知識。通常,結(jié)構(gòu)化知識很難構(gòu)建(因為要設(shè)計知識的結(jié)構(gòu)體系),但易于推理(因為有體系結(jié)構(gòu)),非結(jié)構(gòu)化知識易于構(gòu)建(直接存起來就行),但很難用于推理(沒有體系結(jié)構(gòu))。然而,語言模型提供了一種新的方法,可以輕松地從非結(jié)構(gòu)化文本中提取知識,并在不需要預(yù)定義模式的情況下有效地根據(jù)知識進行推理。下表為優(yōu)缺點對比:
構(gòu)建推理
結(jié)構(gòu)化知識難構(gòu)建,需要設(shè)計體系結(jié)構(gòu)并解析容易推理,有用的結(jié)構(gòu)已經(jīng)定義好了
非結(jié)構(gòu)化知識容易構(gòu)建,只存儲文本即可難推理,需要抽取有用的結(jié)構(gòu)
語言模型容易構(gòu)建,在非結(jié)構(gòu)化文本上訓(xùn)練容易推理,使用提示詞即可
分布外魯棒性
我們討論的第三種能力是分布外的魯棒性。在 2018 年至 2022 年期間,NLP、CV 和通用機器學(xué)習(xí)領(lǐng)域有大量關(guān)于分布偏移/對抗魯棒性/組合生成的研究,人們發(fā)現(xiàn)當(dāng)測試集分布與訓(xùn)練分布不同時,模型的行為性能可能會顯著下降。然而,在大型語言模型的上下文學(xué)習(xí)中似乎并非如此。Si 等人在2022年的研究顯示[17]:
數(shù)據(jù)來自于 Si et. al. 2022. 雖然 GPT-3 在同分布設(shè)置下比 RoBERTa 要差,但在非同分布設(shè)置下優(yōu)于 RoBERTa,性能下降明顯更小。
同樣,在此實驗中,同分布情況下基于提示詞的 GPT-3 的效果并沒有精調(diào)后的 RoBERTa要好。但它在三個其他分布(領(lǐng)域切換、噪聲和對抗性擾動)中優(yōu)于 RoBERTa,這意味著 GPT3 更加魯棒。
此外,即使存在分布偏移,好的提示詞所帶來的泛化性能依舊會繼續(xù)保持。比如:
圖片來自于 Fu et. al. 2022. 即使測試分布與訓(xùn)練分布不同,復(fù)雜提示也始終比簡單提示的表現(xiàn)更好。
Fu 等人2022年[18]的研究顯示,輸入提示越復(fù)雜,模型的性能就越好。這種趨勢在分布轉(zhuǎn)移的情況下也會繼續(xù)保持:無論測試分布與原分布不同、來自于噪聲分布,或者是從另一個分布轉(zhuǎn)移而來的,復(fù)雜提示始終優(yōu)于簡單提示。
到目前為止的總結(jié)
在上文中,我討論了只有大型模型才有的三種突現(xiàn)能力。它們是:
復(fù)雜推理,大型模型在沒有使用全部訓(xùn)練數(shù)據(jù)的情況下便顯著優(yōu)于以前的小型模型。
知識推理,大型模型可能沒有小模型效果好,但大模型不需要額外的知識來源(知識可能很昂貴,或者很難從非結(jié)構(gòu)化數(shù)據(jù)中抽取)。
分布外魯棒性,這是之前進行模型精調(diào)時需要努力解決的問題。大型模型雖然在同分布情況下的效果不如以前的方法,但非同分布情況下的泛化性能卻好得多。
突現(xiàn)能力推翻比例定律
鑒于上文列出的優(yōu)點,大家可能會開始覺得大型語言模型確實很好了。在進一步討論之前,讓我們再回顧一下之前的工作,就會發(fā)現(xiàn)一個很奇怪的問題:GPT-3 在 2020 年就發(fā)布了,但為什么直到現(xiàn)在我們才發(fā)現(xiàn)并開始思考范式的轉(zhuǎn)變?
這個問題的答案就藏在兩種曲線中:對數(shù)線性曲線和相變曲線。如下圖:
左圖: 比例定律. 當(dāng)模型大小呈指數(shù)增長時,相應(yīng)的模型性能呈線性增長。右圖: 當(dāng)模型尺寸達到一定規(guī)模時,會出現(xiàn)突現(xiàn)能力,讓性能急劇增加。
最初,(OpenAI)的研究者認為語言模型的性能與模型尺寸的關(guān)系可以通過對數(shù)線性曲線預(yù)測,即模型尺寸呈指數(shù)增長時,性能會隨之線性增加。這種現(xiàn)象被稱為語言模型的縮放定律,正如 Kaplan 等人在2020年[19]最初的GPT3文章[20]中討論的那樣。重要的是,在那個階段,即便最大的 GPT-3 在有提示的情況下也不能勝過小模型精調(diào)。所以當(dāng)時并沒有必要去使用昂貴的大模型(即使提示詞的標注效率很高)。直到2021年,Cobbe 等人[21]發(fā)現(xiàn)縮放定律同樣適用于精調(diào)。這是一個有點悲觀的發(fā)現(xiàn),因為它意味著我們可能被鎖定在模型規(guī)模上——雖然模型架構(gòu)優(yōu)化可能會在一定程度上提高模型性能,但效果仍會被鎖定在一個區(qū)間內(nèi)(對應(yīng)模型規(guī)模),很難有更顯著的突破。
在縮放定律的掌控下(2020年到2021),由于GPT-3無法勝過精調(diào) T5-11B,同時T5-11B微調(diào)已經(jīng)很麻煩了,所以NLP社區(qū)的關(guān)注點更多的是研究更小的模型或者高效參數(shù)適應(yīng)。Prefix tuning[22]就是提示和適應(yīng)交叉的一個例子,后來由 He 等人在 2021[23]統(tǒng)一。當(dāng)時的邏輯很簡單:如果精調(diào)效果更好,我們就應(yīng)該在高效參數(shù)適應(yīng)上多下功夫;如果提示詞的方法更好,我們應(yīng)該在訓(xùn)練大型語言模型上投入更多精力。
之后在 2022 年 1 月,思維鏈的工作被放出來了。正如作者所展示的那樣,思維鏈提示在性能-比例曲線中表現(xiàn)出明顯的相變。當(dāng)模型尺寸足夠大時,性能會顯著提高并明顯超越比例曲線。
當(dāng)使用思維鏈進行提示時,大模型在復(fù)雜推理上的表現(xiàn)明顯優(yōu)于微調(diào),在知識推理上的表現(xiàn)也很有競爭力,并且分布魯棒性也存在一定的潛力。要達到這樣的效果只需要8個左右的示例,這就是為什么范式可能會轉(zhuǎn)變的原因。
范式轉(zhuǎn)變意味著什么?
范式轉(zhuǎn)變究竟意味著什么?下面我們給出精調(diào)和提示詞方法的對比:
提示詞的好處很明顯:我們不再需要繁瑣的數(shù)據(jù)標注和在全量數(shù)據(jù)上進行精調(diào),只需要編寫提示詞并獲得滿足要求的結(jié)果,這比精調(diào)要快很多。
另外要注意的兩點是:
上下文學(xué)習(xí)是監(jiān)督學(xué)習(xí)嗎?
坦白講,我不確定。
相似之處在于,上下文學(xué)習(xí)也需要像訓(xùn)練數(shù)據(jù)一樣的示例
不同之處在于,上下文學(xué)習(xí)的泛化行為并不同于監(jiān)督學(xué)習(xí),這使得之前的泛化理論(例如 Rademancher Complexity 或 Neural Tangent Kernel)均不適用。
上下文學(xué)習(xí)真的比監(jiān)督學(xué)習(xí)效果要好嗎?
答案還未知。
大多數(shù)提示詞和精調(diào)的對比都只比了 提示詞+大模型 vs 精調(diào)+小模型,但公平的對比應(yīng)該是 提示詞+大模型 vs 精調(diào)+大模型,且對比時的基座模型應(yīng)該一樣。所以在最初的思維鏈文章中,如果 Wei 等人要說明提示詞好于精調(diào),他們應(yīng)該對比精調(diào)后的PaLM,而不是GPT3。
我的假設(shè)是:精調(diào)可以提高分布內(nèi)的性能,但會損害分布外的魯棒性。提示詞在分布變化的場景中表現(xiàn)更好,但在同分布場景下不如精調(diào)。
如果假設(shè)是真的,那么一個值得研究的問題就是如何在不犧牲其上下文學(xué)習(xí)能力的情況下進行精調(diào)
注意分布外精調(diào)的效果同樣會隨著模型尺寸變化。比如 Yang 等人在2022年的工作中,第四張表就顯示,Bart-based的分布外泛化能力會下降,但Bart-large則提升。對于大模型,當(dāng)測試集的分布和訓(xùn)練集相差不大時,同分布的精調(diào)效果也應(yīng)該會提升。
再回顧一下前文提到的的邏輯:如果精調(diào)更好,我們應(yīng)該努力研究如何進行參數(shù)高效的優(yōu)化;如果提示詞更好,我們應(yīng)該努力去訓(xùn)練更好的大型語言模型。
所以,盡管我們相信大型語言模型有巨大的潛力,仍然沒有確鑿的證據(jù)表明精調(diào)和提示詞哪種方法更好,因此我們不確定范式是否真的應(yīng)該轉(zhuǎn)變、或應(yīng)該轉(zhuǎn)變到什么程度。仔細比較這兩種范式,使我們對未來有一個清晰的認識,是非常有意義的。我們將更多討論留到下一篇文章。
模型應(yīng)該多大才夠?
兩個數(shù)字:62B 和 175B。
模型至少需要62B,使思維鏈的效果才能大于標準的提示詞方法。
模型至少需要175B(GPT3的尺寸),思維鏈的效果才能大于精調(diào)小模型(T5 11B)的效果。
62B這個數(shù)字來自于 Chung 等人 2022 年工作的第五張表[24]:
對于所有小于62B的模型,直接用提示詞都好于思維鏈。第一個用思維鏈更好的模型是 Flan-cont-PaLM 62B 在BBH上的結(jié)果。540B的模型使用思維鏈會在更多任務(wù)上得到好的效果,但也不是全部任務(wù)都好于精調(diào)。另外,理想的尺寸可以小于 540B,在 Suzgun 等人2022年[25]的工作中,作者展示了175B的 InstructGPT 和 175B的 Codex 使用思維鏈都好于直接用提示詞。綜合以上結(jié)果,我們得到了63B和175B兩個數(shù)字。所以,如果想要參與這場游戲,首先要有一個大于平均尺寸的模型。
不過,還有其他大型模型在思維鏈下的表現(xiàn)差了很多,甚至不能學(xué)到思維鏈,比如 OPT、BLOOM 和 GPT-3 的第一個版本。他們的尺寸都是175B。這就引出了我們下一個要討論的問題。
規(guī)模是唯一的因素嗎?
不是。
規(guī)模是一個必要但不充分的因素。有些模型足夠大(比如 OPT 和 BLOOM,都是 175B),但并不能做思維鏈。
有兩種模型可以做思維鏈 (TODO: add discussions about UL2):
GPT3系列的模型,包括 text-davinci-002 和 code-davinci-002 (Codex)。這是僅有的兩個具有強大突現(xiàn)能力并可公開訪問的模型。
除了以上兩個模型,其他GPT3模型,包括原來的GPT3,text-davinci-001,以及其他更小的GPT-3模型,都不能做思維鏈。
當(dāng)說“能做思維鏈”時,我們是指使用思維鏈方法的效果比直接用提示詞、精調(diào)T5-11B效果更好。
另外要注意的是,code-davinci-002 在語言任務(wù)上的性能始終優(yōu)于 text-davinci-002。這個觀察非常有趣且耐人尋味。這表明基于代碼數(shù)據(jù)訓(xùn)練的語言模型可以勝過根據(jù)語言訓(xùn)練的語言模型。目前為止我們還不知道是為什么。
PaLM系列模型,包括 PaLM、U-PaLM、Flan-PaLM 和 Minerva。這些模型目前還未開放訪問(此處@谷歌,快開源吧)。
為什么會有突現(xiàn)能力目前還不清楚,但我們找出了一下可能產(chǎn)生突現(xiàn)能力的因素:
指令精調(diào):GPT-3 text-davinci-002 就是用指令+強化學(xué)習(xí)精調(diào)[26]的產(chǎn)物。在這之前,text-davinci-001 做思維鏈的效果并不好。同時PaLM[27]在經(jīng)過指令精調(diào)[28]后的效果也有提升。
在代碼上精調(diào):Codex code-davinci-002 是在代碼上進行精調(diào)的,它的效果持續(xù)好于 text-davinci-002。PaLM 也在代碼上進行了調(diào)整。從表面上看,代碼與語言關(guān)系不大,但似乎起了很大作用,我們會在之后的文章進行討論。
用思維鏈精調(diào):在 text-davinci-002 發(fā)布時,谷歌已經(jīng)發(fā)布 PaLM 3 個月了。所以 OpenAI 應(yīng)該看到了思維鏈相關(guān)的工作。還有一些工作表明[29][30],直接用思維鏈數(shù)據(jù)進行精調(diào)可以激發(fā)模型的思維鏈能力。
然而,所有這些因素在現(xiàn)階段都是推測。揭示如何訓(xùn)練才能讓模型產(chǎn)生突現(xiàn)能力是非常有意義的,我們將更多討論留到下一篇文章。
總結(jié)
在本文中,我們仔細研究了語言模型的突現(xiàn)能力。我們強調(diào)了復(fù)雜推理、知識推理和分布外魯棒性的重要性和其中存在的機會。突現(xiàn)能力是非常令人興奮的,因為它們可以超越比例定律,并在比例曲線中表現(xiàn)出相變。我們詳細討論了研究范式是否會真的從精調(diào)轉(zhuǎn)向上下文學(xué)習(xí),但我們目前還沒有確切答案,因為精調(diào)和上下文學(xué)習(xí)在分布內(nèi)、分布外場景下的效果仍有待對比。最后,我們討論了產(chǎn)生突現(xiàn)能力的三個潛在因素:指令精調(diào)、代碼精調(diào)和思維鏈精調(diào)。非常歡迎大家提出建議和討論。
另外我們還提到了兩個尚未討論的有趣問題:
我們是否能公平對比精調(diào)和上下文學(xué)習(xí)的效果?
我們是如何訓(xùn)練大模型,才能讓模型具備突現(xiàn)能力、思維鏈能力?
對于這兩個問題,我們會在之后的文章中進行討論。
中英對照表
英文中文釋義
Emergent Ability突現(xiàn)能力小模型沒有,只在模型大到一定程度才會出現(xiàn)的能力
Prompt提示詞把 prompt 輸入給大模型,大模型給出 completion
In-Context Learning上下文學(xué)習(xí)在 prompt 里面寫幾個例子,模型就可以照著這些例子做生成
Chain-of-Thought思維鏈在寫 prompt 的時候,不僅給出結(jié)果,還要一步一步地寫結(jié)果是怎么推出來的
Scaling Laws縮放法則模型的效果的線性增長要求模型的大小指數(shù)增長
Parameter-efficient Adaptation高效參數(shù)適應(yīng)在固定住大模型參數(shù)的情況下,增加少量的新參數(shù)進行精調(diào)
Distribution Shift分布轉(zhuǎn)換在一種數(shù)據(jù)分布上進行訓(xùn)練,在另一種數(shù)據(jù)分布上測試
Instruction Tuning指令精調(diào)用 instruction 來 fine-tune 大模型
Code Tuning在代碼上微調(diào)用代碼來 fine-tune 大模型
參考資料
[1]
https://www.yitay.net/blog/emergence-and-scaling: https://www.jasonwei.net/blog/emergence
[2]
Wei et. al. 2022. Chain of Thought Prompting Elicits Reasoning in Large Language Models: https://arxiv.org/abs/2201.11903
[3]
便簽本: https://lingo.csail.mit.edu/blog/arithmetic_gpt3/
[4]
Wei et. al. 2022. Emergent Abilities of Large Language Models: https://arxiv.org/abs/2206.07682
[5]
Wei et. al. 2022. Emergent Abilities of Large Language Models: https://arxiv.org/abs/2206.07682
[6]
Cobbe et. al. 2021. Training Verifiers to Solve Math Word Problems: https://arxiv.org/abs/2110.14168
[7]
Wei et. al. 2022. Chain of Thought Prompting Elicits Reasoning in Large Language Models: https://arxiv.org/abs/2201.11903
[8]
Wang et. al. 2022. Self-Consistency Improves Chain of Thought Reasoning in Language Models: https://arxiv.org/abs/2203.11171
[9]
Fu et. al. 2022. Complexity-Based Prompting for Multi-step Reasoning: https://arxiv.org/abs/2210.00720
[10]
Chung et. al. 2022. Scaling Instruction-Finetuned Language Models: https://arxiv.org/abs/2210.11416
[11]
Lewkowycz et. al. 2022. Minerva: Solving Quantitative Reasoning Problems with Language Models: https://arxiv.org/abs/2206.14858
[12]
Jiang et. al. 2022. Draft, Sketch, and Prove: Guiding Formal Theorem Provers with Informal Proofs: https://arxiv.org/abs/2210.12283
[13]
Xu et. al. 2021. Fusing Context Into Knowledge Graph for Commonsense Question Answering: https://aclanthology.org/2021.findings-acl.102.pdf
[14]
Khashabi et. al. 2020. UnifiedQA: Crossing Format Boundaries With a Single QA System: https://aclanthology.org/2020.findings-emnlp.171
[15]
Yu et. al. 2022. Generate rather than Retrieve: Large Language Models are Strong Context Generators: http://arxiv.org/abs/2209.10063
[16]
Jung et. al. 2022. Maieutic Prompting: Logically Consistent Reasoning with Recursive Explanations: https://arxiv.org/abs/2205.11822
[17]
Si et. al. 2022. Prompting GPT-3 to be Reliable. : https://arxiv.org/abs/2210.09150
[18]
Fu et. al. 2022. Complexity-based Prompting for Multi-Step Reasoning: https://arxiv.org/abs/2210.00720
[19]
Kaplan et. al. 2020. Scaling Laws for Neural Language Models: https://arxiv.org/abs/2001.08361
[20]
Brown et. al. 2020. Language Models are Few-Shot Learners.: https://arxiv.org/abs/2005.14165
[21]
Cobbe et. al. 2021. Training Verifiers to Solve Math Word Problems: https://arxiv.org/abs/2110.14168
[22]
Li and Liang. 2021. Prefix-Tuning: Optimizing Continuous Prompts for Generation: https://aclanthology.org/2021.acl-long.353.pdf
[23]
He et. al. 2021. Towards a Unified View of Parameter-Efficient Transfer Learning: https://arxiv.org/abs/2110.04366
[24]
Chung et. al. 2022. Scaling Instruction-Finetuned Language Models: https://arxiv.org/abs/2210.11416
[25]
Suzgun et. al. 2022. Challenging BIG-Bench tasks and whether chain-of-thought can solve them: https://arxiv.org/abs/2210.09261
[26]
Ouyang et. al. 2022. Training language models to follow instructions with human feedback: https://arxiv.org/abs/2203.02155
[27]
Chowdhery et. al. 2022. PaLM: Scaling Language Modeling with Pathways: https://arxiv.org/abs/2204.02311
[28]
Chung. et. al. 2022. Scaling Instruction-Finetuned Language Models: https://arxiv.org/abs/2210.11416
[29]
Huang et. al. 2022. Large Language Models Can Self-Improve: https://arxiv.org/abs/2210.11610
[30]
Chung. et. al. 2022. Scaling Instruction-Finetuned Language Models: https://arxiv.org/abs/2210.11416
本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊舉報。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
a16z整理了AI大模型領(lǐng)域的經(jīng)典閱讀資料
大模型迎來「開源季」,盤點過去一個月那些開源的LLM和數(shù)據(jù)集
熱點解讀:大模型的突現(xiàn)能力和ChatGPT引爆的范式轉(zhuǎn)變
系統(tǒng)學(xué)習(xí)大模型的20篇論文
一文看盡2019全年AI技術(shù)突破
大型語言模型在生物技術(shù)和藥物研究中的應(yīng)用
更多類似文章 >>
生活服務(wù)
熱點新聞
分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服