1879年,當愛迪生測試的燈絲終于持久點亮時,他思考的下一個問題是:怎樣才能讓更多人用上電?白熾燈的誕生,并沒有立即讓全人類即刻享受到夜間生活的自由。在那個年代,只有摩根和范德比爾特家族才裝得起龐大的家用蒸汽發(fā)電機。直到1882年9月,愛迪生在紐約曼哈頓珍珠街鋪設了第一張電網(wǎng),僅用一座發(fā)電站,就能給一平方英里內(nèi)的普通住戶提供電能。無數(shù)人見證了這一歷史時刻,兩位美國記者這樣描述道:“昨天晚上,紐約市珍珠街的85戶家庭和商店內(nèi)外出現(xiàn)燈火輝煌的景象,400盞電燈點亮了整條街,改變了街坊居民夜晚的生活,也為人類文明史掀開了新的一頁?!?/span>每一項革命性的技術(shù)誕生后,人類都需要探尋技術(shù)走向“普惠”的方法。1947年晶體管橫空出世,但直到集成電路被發(fā)明,芯片才逐步推廣民用;1969年計算機網(wǎng)絡的雛形便已萌芽,但需要等到蒂姆·伯納斯-李在90年代定義萬維網(wǎng),互聯(lián)網(wǎng)才真正地走進全世界的每一個角落。同樣,在AGI引領(lǐng)的第四次工業(yè)革命里,一個課題擺在行業(yè)先驅(qū)面前:如何讓主流大眾更快的用上AI?早在本輪AI浪潮爆發(fā)之前,“AI普惠”便是百度智能云的十六字方針——「深入行業(yè)、聚焦場景、云智一體、AI普惠」其中的核心目標。但對于百度集團執(zhí)行副總裁、百度智能云事業(yè)群總裁沈抖來說,這個目標在去年5月他剛接手百度智能云業(yè)務時,呈現(xiàn)出來的是一種過于“碎片化”的圖景。百度集團執(zhí)行副總裁、百度智能云事業(yè)群總裁沈抖
這種“碎片化”根源于傳統(tǒng)判別式AI的基因——針對每一個問題,都要生成一個能力來解決,通用性較差。這導致AI落地時出現(xiàn)了傳統(tǒng)軟件行業(yè)的固有頑疾——需求不夠標準化,項目制大行其道,乙方常常淪為高科技施工隊。沈抖回憶道:“那時候AI在不同的場景里面非常碎片化,做起來很累,很難找到能夠依靠規(guī)?;瘞訕I(yè)務的場景?!?/span>而當大模型開啟AGI的終局之路后,“AI普惠”終于能看到一個標準化和規(guī)模化的前景——大模型的通用能力能夠跨場景來解決問題,如同電力一樣,發(fā)電廠和電網(wǎng)并不需要區(qū)分下游居民的需求到底是照明,還是制冷。通用端帶來的這一變化足以令人驚喜,沈抖定位大模型的價值在于把系統(tǒng)與人真正串聯(lián)起來,當大模型成為應用的底座之后,將從根本上改變開發(fā)的范式。大模型的加碼,讓天平從代碼能力驅(qū)動、理解程序語言向創(chuàng)意驅(qū)動、理解應用需求一側(cè)傾斜,“AI普惠”在應用供給端將極大豐富,人人皆可成為開發(fā)者的時代已經(jīng)到來。在推開智能革命的大門時,百度攜帶了強大的先發(fā)優(yōu)勢——從算力層的AI芯片昆侖芯,到框架層的飛槳,到模型層的文心大模型,再到應用層的工業(yè)、政務等產(chǎn)業(yè)應用,百度“全?!眱?yōu)勢明顯,因此在「AI普惠」方面,業(yè)界需要百度率先趟出一條路來。即使過去互聯(lián)網(wǎng)時代下走過的每一步讓百度在全鏈條上都有布局,但面對大模型能力泛化下所展現(xiàn)的全新商業(yè)圖景,沈抖直言“以一家之力是絕對干不過來的”,在他看來生態(tài)的打造至關(guān)重要。一個更繁榮的應用生態(tài)會將更多物種包容其中。第一類“物種”便是插件,OpenAI已經(jīng)打了頭陣,如同今天手機廠商與各類APP應用之間相輔相成,大模型企業(yè)與插件之間也將呈現(xiàn)強相互依賴與增強的關(guān)系。第二類是大量的生態(tài)伙伴,“普惠”本身源于更好解決應用問題,從技術(shù)到應用的“最后一公里問題”,依賴于生態(tài)伙伴協(xié)助交付。沈抖給了很凝練的總結(jié),如果把前者視為是開發(fā)者生態(tài)的能力聚合,后者則是協(xié)助大模型做好面向應用的直接交付,但還有第三類,就是把大模型當成一種能力直接強化客戶現(xiàn)有服務。百度要把模型能力送到企業(yè)面前,是為了便利企業(yè)更好地把自己的服務能力送到客戶面前。在過去半年里,我們調(diào)研發(fā)現(xiàn)企業(yè)對于大模型的需求真實且強烈,“降本”和“提效”的渴望寫在每一個希望穿越周期的老板臉上。但對大多數(shù)人來說,接觸大模型的場景僅限于聊天機器人。如何在企業(yè)內(nèi)部落地幾十上百億參數(shù)的大模型,是一件令人興奮但又令人生畏的事情。而百度針對這個問題交出的第一張答卷,就是百度智能云千帆大模型平臺。千帆大模型平臺顧名思義,是一個提供各類模型和工具的“一站式平臺”,其核心目標是幫助企業(yè)降低大模型的使用成本,因此千帆平臺覆蓋了從數(shù)據(jù)管理、模型訓練、評估測試、落地部署等全流程開發(fā)環(huán)境和工具鏈,能夠最大程度地縮短企業(yè)使用大模型的學習曲線。為了滿多樣化的需求,考慮到不同模型有場景的適配性,千帆平臺不僅支持百度自家的文心大模型,還接入Llama2、ChatGLM、MPT、Falcon等四十多個大模型,是目前支持第三方模型最多的平臺。正如沈抖的觀察:“目前開源模型雖然很多,但不是每個模型都值得大家去試用,不然在早期會造成很大的資源浪費?!彼郧Х珒?nèi)每一個模型的入庫,會綜合“模型效果、安全性、可商用”三個角度提前做好篩選。在試用千帆平臺時,我們還可以看到百度智能云為“AI普惠”所進行的諸多努力,比如平臺上有多達103款Prompt模板,涵蓋對話、編程、電商、翻譯等多個場景,可以迅速上手;再比如預置了41個高質(zhì)量的、有行業(yè)特色的數(shù)據(jù)集,客戶在做模型微調(diào)的時候,只要點幾個按鈕就可以完成微調(diào)、提高模型效果。這些努力的確擊中了下游企業(yè)的痛點,千帆大模型平臺自3月27日開啟測試以來,月活企業(yè)數(shù)已近萬家,覆蓋金融、制造、能源、政務、交通等行業(yè)的400多個場景。百度則跟來自眾多垂直行業(yè)的上百家客戶進入深度接觸,勾勒出企業(yè)的落地路徑和需求畫像。在9月5號舉辦的2023百度云智大會上,無數(shù)專家和客戶云集北京,沈抖代表百度智能云宣布了千帆大模型平臺的2.0全面升級。在千帆2.0平臺上,我們看到百度帶來了更多“AI普惠”的工具,比如大幅增強了平臺模型對中文的理解能力,全面提升了訓練和推理性能,算力服務和安全能力也做了大幅度的提升。在云智大會上,百度智能云更是直接推出了針對數(shù)字政府、金融、工業(yè)、交通等四個領(lǐng)域的全面解決方案,他們的共同點是都基于大模型進行了重構(gòu)。我們在2023云智大會召開期間采訪了沈抖,此時正值文心一言剛剛面向全社會用戶開放,僅在第一天就足足回答了3342萬個問題,“文心一言App”更是登上AppStore免費榜榜首。百度的大模型技術(shù)底座,在超預期的C端流量下經(jīng)受住了第一次“全民考驗”。能頂住這一次流量大考,離不開過去半年在成本端的持續(xù)努力,沈抖給出了一個直觀的數(shù)據(jù),文心大模型的推理速度已經(jīng)較發(fā)布初期提升了 30 多倍,推理成本也實現(xiàn)了大幅下降,這都是百度能夠承載得了這么大的用戶量的主要原因。現(xiàn)在的百度稍顯從容,沈抖還打趣地說,“流量涌入是幸福的'煩惱’,可以來得更猛烈些”。當然,對于大模型在B端的落地,沈抖在樂觀中也保持謹慎,他在訪談中坦言,很多客戶對大模型的能力上限、邊界、成本、交付、需求方式都還沒有統(tǒng)一認知,在行業(yè)早期可能依然需要用項目制的方式來幫客戶理解它——百度看起來已經(jīng)做好了打這種陣地戰(zhàn)的準備。潛在的困難,的確不會削弱宏大進程里的每一份決心。在AGI這片新大陸被發(fā)現(xiàn)之后,全球科技海面上都是一副千帆競渡、百舸爭流的景象。因此“千帆”這個名字恰如其分——帶領(lǐng)同行者共同抵達彼岸,是每一輪技術(shù)革命里的先行者,都必須要承擔的歷史使命。站在新的科技樹面前,百度也有自己的星辰大海。他們一手握住大模型的技術(shù)端,一手是多年to C、to B產(chǎn)品端的開發(fā)經(jīng)驗,在這輪應用端開發(fā)上一直強調(diào)著“AI原生思維”。打造AI原生產(chǎn)品,強調(diào)重構(gòu)而不是接入,比“AI普惠”本身更多了一些技術(shù)視角下獨有的理想主義。而提到百度的大模型戰(zhàn)略,則是to C、to B兩條腿走路。沈抖認為,對話框式應用一定不是大模型的最終產(chǎn)品形態(tài)。面向C端,百度已在積極研究可落地的產(chǎn)品形態(tài)和商業(yè)模式。基于大模型重構(gòu)C端產(chǎn)品,百度網(wǎng)盤、百度文庫重構(gòu)后用戶使用粘性、會員付費率都有很大提高,文心一言APP、百度搜索,也布局了大模型應用新入口。面向B端,則是通過打造大模型平臺,服務好To B市場,“應用上,無論誰的成功都是大模型的成功”。倒回到二十多年前,沈抖在清華讀研究生的方向就是人工智能,與當前的方向“高度一致”。在百度多年,沈抖一直參與和負責核心業(yè)務,2022年5月?lián)伟俣戎悄茉剖聵I(yè)群總裁后,很快就迎來了一次新的浪潮,在百度這艘潮流最前沿的航船上,沈抖在采訪中直言自己“很興奮,也很幸運”。作為智能云業(yè)務的負責人,沈抖的視角往往會更深入一步。從應用層向下深入大模型,一定繞不開更底層關(guān)于資源配置的思考,目前算力端已經(jīng)在從CPU云向GPU云遷移。而不論從何種角度出發(fā),成本優(yōu)化、算力部署、模式遷移,都會是來自技術(shù)與商業(yè)的雙重挑戰(zhàn)。在千帆競發(fā)的大航海時代,沈抖還有哪些思考?百度智能云還有哪些布局和規(guī)劃?我們把與沈抖的對話全文整理如下。大語言模型帶來產(chǎn)品端的想象,才剛剛開始
硅基研習社:探討技術(shù)奇點來臨總是一個令人興奮的話題,大模型狂飆30、100、200天的記錄,見證了情緒曲線的沖高與回落。當我們看到大眾的熱情與好奇逐漸回歸冷靜,文心一言的開放數(shù)據(jù)又讓我們眼前一亮。
這一天對國內(nèi)大模型廠商或許有不一樣的意義,大模型能力繼續(xù)向前進化,從技術(shù)到產(chǎn)品,圍繞產(chǎn)品端的競爭號角已然吹響。OpenAI讓我們看到了很多可能性,國內(nèi)大模型在產(chǎn)品形態(tài)演進和商業(yè)模式摸索上,也一定會帶來更多類似移動互聯(lián)網(wǎng)時代下的驚喜。而這變革的前夜,才剛剛浮露晨曦。
Q:近日外界對大模型的討論有所降溫,關(guān)注重心也從好奇轉(zhuǎn)向了務實落地。百度作為國內(nèi)第一家對外全面開放大模型C端應用的公司,您怎么看待文心一言開放當日的數(shù)據(jù)情況?是意料之中還是意料之外?
沈抖:當天實際回答量達到了3342萬,其實比我們預期要高。數(shù)據(jù)是我從系統(tǒng)里直接截取的,發(fā)到群里后大家原封不動地呈現(xiàn)給了外界,絕對真實。
而且用戶規(guī)模大、溝通輪數(shù)多也是這次的特點。整個過程中大家不是只問一兩句話就走了,而是經(jīng)過了多輪的對話,從這個角度看用戶的熱情還在。
Q:面對用戶大量涌入?yún)⑴c對話,百度在算力端做了什么準備?成本和后臺的運維能力怎么樣?
沈抖:大模型本身就是資源密集型的技術(shù)范式。當天規(guī)模雖然大,但得益于我們在推理端做了大幅優(yōu)化,推理速度相比3月文心一言開啟內(nèi)測提升了30多倍,成本大幅降低。但從訓練到推理,技術(shù)進步還沒有到天花板,成本會繼續(xù)降低。
其實擁有更多的用戶都是“幸福的煩惱”,算力資源是需要長期投入的,我們也有不錯的算力儲備。
Q:借助這次文心一言開放,百度對C端的廣泛觸達才真正開始。回到關(guān)于產(chǎn)品本身的思考,目前C端接觸到大模型相關(guān)產(chǎn)品多以對話的形態(tài)出現(xiàn),而產(chǎn)品端作為一切技術(shù)的匯集點,您認為大模型面向C端的價值會以什么樣的產(chǎn)品形態(tài)產(chǎn)生?
沈抖:產(chǎn)品端Robin(注:百度創(chuàng)始人、董事長兼 CEO 李彥宏)一直有個要求,一定要用AI原生思維來重構(gòu)所有產(chǎn)品,打造AI原生產(chǎn)品。不是接入,而是要把它變成AI原生,至于最后的交互形態(tài)是什么,還會不斷迭代。
而現(xiàn)在定性大模型的產(chǎn)品形態(tài)還尚早,對比移動互聯(lián)網(wǎng)時期,大語言模型技術(shù)更強大,應用的邊界范圍更寬泛,產(chǎn)品形態(tài)還遠未到收斂的階段。
在移動生態(tài)剛出現(xiàn)時,可以用SoLoMo(Social、Local、Mobile,利用社交媒體、地理定位服務和移動終端設備來提供更好的用戶體驗)做清晰地定義,但對于大模型,目前還無法用幾個關(guān)鍵詞去定義大語言模型產(chǎn)品。
Q:ChatGPT的產(chǎn)品形態(tài)和訂閱制的收費模式,對于國內(nèi)的大模型產(chǎn)品設計和商業(yè)模式推進是否有借鑒意義?
沈抖:OpenAI是技術(shù)驅(qū)動的公司,用戶體驗肯定不是它的強項。目前它的產(chǎn)品形態(tài)也只是早期狀態(tài),接下來產(chǎn)品迭代速度會非???。
面向C端商業(yè)化的機會,國內(nèi)會有自己的變現(xiàn)方式,常見的是廣告、電商、游戲三大路徑,還會演變出新的路徑。
打個比方,如果你愿意一個月花兩千塊錢雇一個助理,那當 AI 能做助理 1/10 的事情,比如幫你制定旅游行程、預定機票和酒店、甚至調(diào)動打車和外賣軟件等,你會不會愿意花兩百塊?
當產(chǎn)品真正能創(chuàng)造價值后,用戶就愿意為它買單,但不一定是會員付費的形式,也可能是交易傭金或其它方式。今天我們看得見的產(chǎn)品形態(tài)主要是對話,但將來會有更多的產(chǎn)品形態(tài),一款面向C端的產(chǎn)品,就是產(chǎn)品形態(tài)決定了變現(xiàn)的方式。
Q:支持產(chǎn)品發(fā)展的底層技術(shù)很關(guān)鍵,外界對于百度底座大模型的發(fā)展也非常關(guān)心,在技術(shù)端您目前關(guān)注的重點是什么?
沈抖:首要問題,是生成式AI能力向上還能摸多高,以及我們怎么把它做得更好。雖然文心一言現(xiàn)在的評測結(jié)果還不錯,但它還遠沒有到達優(yōu)秀人類語言理解的上限。如何快速提升這方面能力,肯定是我們第一位思考的問題。
其次是模型到底怎么能夠真正用起來、在哪些場景下能夠更高效地用起來。還有硬件端,整個模型訓練的優(yōu)化是軟硬一體的優(yōu)化,其中涉及到的技術(shù)都很關(guān)鍵,萬卡集群的組織、效率、保障,真正底層的工作是大家看不到的,但又極其重要。
千帆大模型平臺,讓用戶把模型真正用起來
硅基研習社:“AI普惠”的唯一目標,是讓大模型更好、更便捷地為大眾所用,如同使用水與電,成為一種理所當然的習慣。而現(xiàn)在擺在所有互聯(lián)網(wǎng)大廠與AI企業(yè)的第一道門檻,是怎么讓用戶先用上大模型。
C端、B端、大型客戶、中小客戶,行業(yè)客戶的專有需求、業(yè)務提煉的通用需求,從客戶端到場景端只要你想排列組合,需求的復雜層次完全超乎想象。但這也正是重注大模型企業(yè)們所必須面對的問題,如何利用自有大模型與開源大模型去更好服務客戶,值得期待各家的排兵布陣策略。
Q:作為潛在用戶,以我們內(nèi)容公司為例,我們也想用大模型來幫助實現(xiàn)文章創(chuàng)作和內(nèi)容生成,千帆大模型平臺會如何幫助這些沒有配置程序員的公司來落地大模型應用和降低成本?
沈抖:這是非常好的問題,事實上,這就是我們做千帆平臺的原因。
這次大模型在 B 端落地的特點是大公司先行,很多客戶都是金融機構(gòu)、能源機構(gòu)、教育機構(gòu)等。它們有一個明顯的特點是需要私有化部署,但這樣門檻很高,還要自己培養(yǎng)一堆技術(shù)人員迭代模型,可能會減慢大模型生效的時間。
反倒像中小公司,大概率不會排斥使用公有云。例如您提到的內(nèi)容創(chuàng)作需求,如果需要定制,可以在千帆上直接調(diào)用API,可以做封裝,也可以通過微調(diào)形成您的寫作風格,幾乎零代碼打造自己的模型。我們做千帆的目的,就是要降低大模型的部署門檻、推動大模型的廣泛應用。
Q:千帆大模型平臺引入了四十多個第三方大模型,包括LLaMA、Falcon等,百度引入的目的是什么?
沈抖:在目前或相當長一段時間內(nèi),不管是出于模型的場景適配性、還是客戶的心理需求,企業(yè)都希望能嘗試不同的模型。從這個角度來講,我們也需要提供第三方模型。
目前模型雖然很多,但我不認為每個模型都值得大家去試用,不然在早期會是很大的資源浪費。百度在開源模型篩選時會有自己的原則,要求選擇的模型相對比較優(yōu)秀、易用。
Q:這些三方開源大模型,它們與平臺的適配、優(yōu)化都是百度團隊調(diào)好的嗎?
沈抖:對,模型跟底層的GPU計算框架的適配都是我們的團隊去做優(yōu)化。針對一些海外模型,千帆也會做中文能力增強,然后提供升級版本供大家使用。
Q:千帆大模型平臺作為開放平臺,目前已支持如LLaMA等第三方大模型的接入,未來會進一步開放嗎?是會類似Hugging face那樣接入更多的數(shù)據(jù)集和開源模型,還是會繼續(xù)經(jīng)過選擇和調(diào)優(yōu)后上架呢?
沈抖:我們希望千帆大模型平臺能夠幫助大家降低大模型的使用門檻。無論是直接用或微調(diào),在現(xiàn)階段,我們會提供第三方的模型。千帆目前主要能力是兩條路徑:
第一條路徑是基于“文心一言”進行發(fā)展。隨著“文心一言”的快速發(fā)展,支持大家用好“文心一言”是千帆最主要的職責之一。在大模型發(fā)展早期,模型有場景適配性,在不同場景下需要不同的模型來解決問題。因此,用戶也需要第三方的模型?,F(xiàn)在國內(nèi)模型數(shù)量很多很多,所以百度在支持模型的時候會有篩選原則。
第二條路徑是為客戶和開發(fā)者提供一站式的模型服務。即通過千帆平臺選擇模型、微調(diào)模型、部署模型,然后為客戶提供服務,一站式地把模型從挑選到應用的全生命周期完成,這也是千帆要比Hugging face做得更深的地方。
Hugging face確實廣度足夠,但它本身不是云平臺,需要依賴AWS或者是其他云平臺去提供算力,計算資源不是它的優(yōu)勢。而且它不是端到端的,模型建設完以后要部署下去,此時如果規(guī)模不大的話用處就不大,規(guī)模大了推理成本又很關(guān)鍵。
這也是為什么,文心一言自發(fā)布以來一直在持續(xù)地進化迭代,推理速度達到了原來的30多倍,推理成本也實現(xiàn)了大幅下降。
千帆大模型平臺不只是解決選模型的問題,而是要解決把模型真正用起來的問題,包括數(shù)據(jù)、訓練、調(diào)優(yōu)、Prompt工程,以及應用搭建等一系列問題,還要充分考慮到成本和效率。
Hugging face提供各種各樣的模型,卻不是一個純粹大模型的平臺,而千帆是一個聚焦大模型的平臺。在未來一段時間里多模型并存的情況下,用戶需要更好的社區(qū)來討論、選擇模型,而我們基于希望大家真正用好大模型為出發(fā)點,打造了千帆大模型平臺。
從IaaS到MaaS,從CPU云到GPU云,大模型將重塑云業(yè)務
硅基研習社:為什么“AI普惠”在今天具備了實現(xiàn)的可能性?大模型作為一種新的底層操作系統(tǒng),讓云業(yè)務從零散、瑣碎的項目狀態(tài)走向可通用、可規(guī)?;?,這不僅是給云業(yè)務帶來了新生,更是讓大家看到了走向AGI的曙光,讓AI變得更AI。
技術(shù)端的突破帶來了應用層更多的可能性,毫無疑問,當程序語言、代碼能力可以進一步被自然語言所取代時,技術(shù)封裝進通用的一層越厚,越能支撐人創(chuàng)意的發(fā)揮。當更多的個體參與其中,多樣化的物種必將塑造更繁榮的AI生態(tài)。
Q:正如之前您提到,應用層產(chǎn)品形態(tài)會如何演進有很多可能性,但目前看來,不論產(chǎn)品形態(tài)如何都需要調(diào)用大模型的API,請問未來的應用是不是都要基于大模型來驅(qū)動?沈抖:大模型會成為一個新時代的操作系統(tǒng),成為應用的基礎(chǔ)底座。以往人和人打交道、人和機器打交道時,使用語言作為溝通方式或指令,以此將系統(tǒng)和人串聯(lián)起來。以前電腦不懂自然語言,所以需要大家生成一套形式語言,再變成程序語言,通過程序員編寫程序代碼以實現(xiàn)交互。如今大語言模型“破解”了自然語言,它就既能理解自然語言,同時還能轉(zhuǎn)化成程序語言。應用開發(fā)的范式就將發(fā)生根本變化,不再是代碼能力驅(qū)動,而是人的創(chuàng)意驅(qū)動。人對應用需求的理解會變得非常關(guān)鍵。另外,大模型也有把系統(tǒng)串聯(lián)起來的能力。像現(xiàn)在插件的出現(xiàn),也就是獨立完成某種能力、等待被調(diào)用的組件,大模型可以把插件組合起來完成一個特定的任務。這都會進一步改變開發(fā)范式。Q:這一驅(qū)動模式的轉(zhuǎn)變,云計算本身是否會產(chǎn)生巨大的變化?沈抖:技術(shù)發(fā)展的脈絡是越來越高級。換句話講,離底層越來越遠,越來越不需要關(guān)注細節(jié),封裝越來越好,有大量的人在背后把這些活給干了。這本身也是云貢獻的價值。早期的CPU云貢獻的價值,就是客戶不用自己買機器一個一個卡綁,它封裝得越來越好、可以在上邊直接用。隨著大模型時代到來,「AI 加速芯片」GPU 慢慢成為算力中心,算力增長速度遠遠超過 CPU。這會加速我們從 CPU 云向 GPU 云的切換。在 GPU 云的時代,最終我們會把云的能力進一步封裝,不讓底層暴露出來,形成更高級的交互形態(tài),直接對接大模型的 API。今天的云還是給工程師開發(fā)的,交互形態(tài)還不夠徹底,但未來底層的工程師會減少,更多人會往上層走。這是一個大幅的變化。Q:我們看到云里面的廠商,包括移動、電信,每一家關(guān)于AGI的技術(shù)儲備差距還是比較大的,云的行業(yè)格局會不會因為AGI發(fā)生變化?聚焦到云業(yè)務本身,AGI會為百度智能云發(fā)展帶來什么驚喜?沈抖:如果沒有大模型的話,百度的云會打得非常吃力。我們一直強調(diào)「深入行業(yè)、聚焦場景、云智一體、AI普惠」,百度智能云想要做的就是把AI放到整個to B的服務中,讓它成為一個增長點。過去傳統(tǒng)的人工智能非常碎片化,所謂判別式AI,是針對一個問題生成一個能力,通用性很差。由于無法規(guī)模化,所以都是項目制,毛利非常低。這次生成式AI出來以后,我們看到它的通用性非常好,一下子可以解決很多問題。而且在應用層往下基本都是統(tǒng)一的,哪怕需要微調(diào)、需要插件,都是標準化的動作。這跟之前非常碎片化的AI應用完全不一樣。這本身就是云業(yè)務的巨大變化,所謂的IaaS變成了MaaS。Q:在這個時代,大模型所對應如此大的泛化能力要落到商業(yè)中,恐怕百度自己也是干不過來的,百度怎么看待自己在云整個生態(tài)中的位置,以及如何理解生態(tài)關(guān)聯(lián)的利益機制?沈抖:以百度一家之力是絕對干不過來的。不是恐怕干不過來,是絕對干不過來。首先,插件一定會是非常繁榮的生態(tài),它和大模型之間是相輔相成的。插件要從大模型中獲取流量,大模型又需要插件能力的支持,就像今天假設手機上沒有微信、抖音 ,用戶可能都不用它了。其次,在面向終端客戶的應用上,無論是私有云部署、還是通過千帆這樣的平臺級方案,最終一定需要生態(tài)伙伴完成最后一公里交付的問題,比如金蝶、用友、軟通動力等。它們有特別熟悉的客戶和業(yè)務流程,最終需求都會被它集成。總結(jié)一下,一是開發(fā)生態(tài)的能力聚合、二是幫大模型做交付的合作伙伴、三是用大模型強化自身服務的客戶,這都是生態(tài)。Q:如果大模型能打通所有插件解決問題,這是不是變相實現(xiàn)了互聯(lián)互通?沈抖:其實依然沒有。實際上,這些 APP 現(xiàn)在也都存在于同一個手機上、同一個應用程序里,它照樣沒有實現(xiàn)互聯(lián)互通。將來在大模型基座上,美團接進來、滴滴接進來,但它們還是沒有互通的。互聯(lián)互通應該指的是數(shù)據(jù)打通,你的數(shù)據(jù)我可以訪問、我的數(shù)據(jù)你可以訪問。但在大模型底座下,我們只是愿意跟這個中樞對話,但我們插件彼此之間并沒有對話。Q:這種不互聯(lián)互通的情況,會不會導致開發(fā)者不能流暢地實現(xiàn)跨資源調(diào)度?這會是中國大模型開發(fā)生態(tài)的缺陷嗎?沈抖:我覺得主要的原因是沒放開、流量規(guī)模沒起來。比如文心一言一下子有了 3000 多萬的流量,開發(fā)者一算可能 1% 是自己的,那也有 30 萬的訪問了,他就會決定來干。Q:智能云業(yè)務這段時間一定也接觸了很多B端客戶,目前在客戶端布局上有遇到什么問題嗎?沈抖:大模型在早期有很大的不確定性,今天,很多客戶對大模型的能力上限、邊界、成本、交付、需求方式都還沒有統(tǒng)一認知。短時間內(nèi),我們還不能保證客戶都到公有云上來,肯定還是先通過項目制的方式去做。但即使是這樣的項目制,也跟以前的項目制不一樣。比如我給你私有化部署了模型,它更像是 Windows 或者是 office,先是 95 版,接著是 97 版,又來了 2000 版,你得不斷的升級??此莆医o你一個光盤裝到家里了,實際上你得不斷地訂閱。這跟原來搭建的也不一樣。Q:未來對百度智能云的發(fā)展增速有什么樣的預期?沈抖:百度智能云現(xiàn)在就接近兩百億的盤子,還相對比較小。在大模型的加持下,我們的客戶需求變得很旺盛,現(xiàn)在都忙不過來。不過要想真正讓用戶用起來、做好交付,還需要一個過程。國內(nèi)大語言模型,未來一年內(nèi)會加速收斂
硅基研習社:在AGI的“宇宙大爆炸”節(jié)點,在大模型的產(chǎn)品形態(tài)演變前夜,在國內(nèi)大模型競爭的焦灼戰(zhàn)時點,一個由遠及近的視角也讓我們的思考回歸現(xiàn)實。國內(nèi)大模型入局者眾多,光大模型的名字可能就已過百。但一切美好展望都必須有落地檢驗的一刻,行業(yè)還是通用、開源還是閉源,交卷的鈴聲已經(jīng)越來越近了。Q:現(xiàn)在大模型層出不窮,您怎么看大模型接下來的競爭格局?沈抖:今天市面上有非常多模型,但我認為它們很多都會迅速消失。現(xiàn)在很多模型之所以還存在,是因為很多人還不知道它的好壞。反正誰也試不了,誰也用不了,一測排名還挺靠前。但隨著模型的放開,優(yōu)劣更容易評判了。今天這些做大模型的,你給他三千萬個問題輸進去試試,估計一大半都得干趴下。這會導致流量的逐步集中,頭部模型更容易形成規(guī)模效應,從而進一步分攤模型研發(fā)的成本,差距會進一步拉大。Q:關(guān)聯(lián)到對開源的討論,開源一定程度上攤薄了企業(yè)部署大模型的成本,您對開源技術(shù)未來的發(fā)展怎么看?沈抖:如果不能很好地承擔起大模型成本,那么(開源)是無源之水、無根之木,終歸有一天會出問題。大模型跟傳統(tǒng)的開源軟件不同,傳統(tǒng)的開源軟件大部分情況下,一個人參與開源,其投入是他自己的時間成本,開發(fā)者寫代碼升級功能,就可以很快check in,提高開源軟件能力。但在大模型來看,LLaMA開源發(fā)布后,國內(nèi)無論多少人用LLaMA,他們開發(fā)的內(nèi)容始終無法check in回去,數(shù)據(jù)、算力、能力放不回去。因此,開源難度很大。如今很多大模型的開源玩法與傳統(tǒng)開源有一點相似的地方,用開源來吸引用戶的注意力,用戶可以在上面試用。但綜合來看,大模型生態(tài)的繁榮應該以應用和原生AI應用作為支撐。Q:關(guān)于開源有沒有可能出現(xiàn)類似于Red Hat(開源解決方案供應商,后被IBM收購)與IBM那種關(guān)系?互聯(lián)網(wǎng)企業(yè)巨頭有算力、研發(fā)的能力,但還有資金實力雄厚的企業(yè)其實也不甘心,他們就像傳統(tǒng)的IBM,可能會跟LLaMA結(jié)合起來去做,這樣就有資金在背后支持,同時行業(yè)也有數(shù)據(jù)和商業(yè)模式。沈抖:不排除這種可能性,開源肯定是會長期存在。大模型熱度高,國內(nèi)從大型企業(yè)、中小企業(yè)、初創(chuàng)企業(yè)都愿意為之進行投入。大模型很貴,但對于大企業(yè)來講并不是無法克服的問題。一些企業(yè)自身的應用場景很多,在這階段自研大模型的私有化部署需求存在,不論效果的好壞,至少不用依賴外部。現(xiàn)在的大模型可以做到60分來解決一大部分問題,難點在于是否能做到90分、95分。隨著大模型下一步的發(fā)展,對大語言模型感興趣的人會跨很多行業(yè),從人工智能、計算機到心理學等等,這是非常受關(guān)注的領(lǐng)域。我認為開源不會成為非常完整閉環(huán)的商業(yè)模式,大概率不會是主流,但不妨礙開源會長期存在。全文完,感謝您的閱讀。