重復造輪子的百模大戰(zhàn):兩極熱,中間空

2023041415274592
文|光錐智能,作者|周文斌,編輯|王一粟
“不敢下手,現(xiàn)在中國還沒跑出來一家絕對有優(yōu)勢的大模型,上層應用沒法投,擔心押錯寶?!蓖顿Y人Jucy(化名)向光錐智能表示,AI項目看得多、投的少是這段時間的VC常態(tài)。
ChatGPT點燃AI大爆炸2個月中,中國一直在等待自己的GPT-3.5。
AI真的冒犯到了打工人。游戲團隊替代掉30%的原畫師、電商團隊用AIGC生成低成本數(shù)字人模特、基礎程序員也感受到了被降維打擊的焦慮……眼看著GPT在國外要將所有領域都重新做一遍的趨勢,科技顛覆裹挾著金錢的味道滾滾而來。
于是,除了焦慮的打工人,企業(yè)急著用大模型降本增效,創(chuàng)業(yè)者急著接入大模型推出新產(chǎn)品,股市急著用ChatGPT概念割韭菜,培訓機構(gòu)更是先賺一波為敬。
襯托之下,反而顯得喜歡追逐風口的中國科技巨頭們比以往更沉得住氣。
果然,周期使人成長,公司也是。
終于,眾望所歸、望眼欲穿、姍姍來遲,4月第二周,中國也迎來了新一代大模型的密集發(fā)布。
繼通義千問開放測試4天后,張勇在接手阿里云后首次亮相,宣布所有阿里產(chǎn)品未來將接入“通義千問”大模型,進行全面改造;
商湯科技在10日的技術交流會上,演示了“日日新”大模型的能力:對話、AI繪畫、編程、數(shù)字人,第二天開盤大漲9%;
華為盤古大模型在8日低調(diào)亮相,但并于10日發(fā)布新產(chǎn)品;
明星創(chuàng)業(yè)者王小川公開亮相,攜手搜狗老搭檔茹立云正式開啟AI創(chuàng)業(yè)的新征程,將在下半年推出百川智能的大模型;
毫末發(fā)布首個自動駕駛大模型DriveGPT雪湖·海若,把人類反饋強化學習引入到駕駛領域。
就連游戲公司昆侖萬維也趕來湊熱鬧,宣稱“中國第一個真正實現(xiàn)智能涌現(xiàn)”的國產(chǎn)大語言模型將于17日啟動邀請測試,但隨后被媒體質(zhì)疑其借熱點炒作股價。
熱熱鬧鬧、真真假假,大模型一時竟然有點亂花漸欲迷人眼。中國的大模型怎么就一下子如雨后春筍般都冒了出來?如果不重復造輪子,大家還能干點什么?
雖然是摸著Open AI過河,但中國大模型也都邁入了無人區(qū)。

01 涌現(xiàn)之前:亦步亦趨,又分道揚鑣

如果要為AI大模型找一個時間節(jié)點,2019年應該是關鍵的一個。
這一年2月,遠在大洋彼岸的OpenAI推出了GPT-2,恰好也是這個時間點,微軟慷慨的投入了10億美元,讓OpenAI從“非營利性”組織變成了“盈利上限”組織。
大概在一個月之后,太平洋的另一邊,百度發(fā)布了ERNIE1.0,成為中國第一個正式開放的預訓練大模型。
但這種第一其實有很多,比如華為的盤古大模型,業(yè)界首個千億參數(shù)的中文語言預訓練模型;比如阿里的M6,中國首個千億參數(shù)多模態(tài)大模型;再比如騰訊HunYuan,國內(nèi)首個低成本、可落地的NLP萬億大模型…..
總之,只要定語加的足夠多,就總能在某個領域當?shù)谝弧?/span>那段時間,從硅谷到北京西二旗、再從五道口到上海臨港,包括華為、阿里、騰訊、商湯在內(nèi),凡是有能力的企業(yè),都開始涉足AI大模型的相關研究。
但中國第一波AI大模型的“涌現(xiàn)”卻是在兩年之后。
2023041415284781
2021年,曾任職過微軟亞洲工程院院長、后被雷軍親自邀請到金山接替求伯君任CEO的張宏江,牽頭成立的智源研究院發(fā)布“悟道1.0”,包括國內(nèi)首個面向中文的NLP大模型、首個中文通用圖文多模態(tài)大模型和首個具有認知能力的超大規(guī)模預訓練的模型等等。
智源成立于2018年,也就是OpenAI發(fā)布GPT-1.0的前五個月,作為北京市和科技部牽頭成立,并集合學界和頭部科技企業(yè)資源的研究機構(gòu),智源其實是中國早期探索AI大模型的一個代表。
可以說,“悟道1.0”其實為中國后來所有AI大模型的一個樣本。除此之外,智源研究院還為中國構(gòu)建了大規(guī)模預訓練模型技術體系,并建設開放了全球最大中文語料數(shù)據(jù)庫WuDaoCorpora,為后來其他企業(yè)發(fā)展AI大模型打下了基礎。
也正是在“悟道1.0”之后,中國大模型開始出現(xiàn)井噴的狀態(tài)。
2021年,華為基于昇騰AI與鵬城實驗室聯(lián)合發(fā)布了鵬程盤古大模型。2022年,阿里發(fā)布了“通義”大模型系列,騰訊發(fā)布混元AI大模型……
在中國AI大模型如雨后春筍般涌現(xiàn)的同時,國外的AI大模型也走到了從量變到質(zhì)變的節(jié)點。
2022年11月,OpenAI發(fā)布了基于GPT-3.5的ChatGPT,徹底打開了人工智能的魔盒,然后就是席卷全球的AI 2.0浪潮。
2023041415285889
事實上,如果以2018年GPT-1發(fā)布為節(jié)點,中國的AI大模型的發(fā)展與國外的發(fā)展脈絡一直都亦步亦趨,但ChatGPT為什么并沒有出現(xiàn)在中國?
這其實和國內(nèi)外AI大模型兩種不同的發(fā)展路徑有關。
從目前國外具有代表性的AI大模型產(chǎn)品來看,比如ChatGPT、Midjourney、Notion AI或者Stable diffusion等等,都是以C端用戶為基礎的產(chǎn)品。
而反觀國內(nèi),目前大模型的主要應用場景的都在B端。
比如阿里的“通義”大模型的典型應用場景包括電商跨模態(tài)搜索、AI輔助設計、開放域人機對話、法律文書學習、醫(yī)療文本理解等等,而騰訊的HunYuan-NLP-1T大模型則應用在騰訊廣告、搜索、對話等內(nèi)部產(chǎn)品落地,或者像商湯的大模型,為自動駕駛、機器人等通用場景任務提供感知和理解能力支持。
之所以選擇To B,一個重要的原因是,B端能夠更容易進行商業(yè)化。
To B的行業(yè)特點導致中國的AI大模型并不需要做到非常大的參數(shù)規(guī)模,甚至于當ChatGPT出來之后,國內(nèi)的公司討論的一個重要方向,是如何將已有的大模型規(guī)?!白鲂 保瑧玫骄唧w的行業(yè)上。
所以中國采用谷歌BERT路線的AI大模型會比較多,以更小的參數(shù),做更有效率,更適合垂類的場景。
所以某種程度上,從出生的第一天,中國大模型就帶著商業(yè)化的任務。
2023041415291076
而國外To C的大模型則不同,如ChatGPT的用戶在短短兩個月就達到一億,其底層預訓練大模型GPT-3.5作為通用大模型,“大”成為參數(shù)的一個基本要求。
這在某種程度上促進OpenAI不停為GPT增加參數(shù),然后激發(fā)更強大的“涌現(xiàn)”現(xiàn)象,最終實現(xiàn)“大力出奇跡”的ChatGPT。
因此,To B和To C兩種完全不一樣的發(fā)展路徑,也將中國和美國的AI大模型引向了兩種完全不同的發(fā)展方向。

02 不要重復造輪子,但大家都想當輪子

“基建狂魔”的稱號在大模型上再次得到驗證。
到目前為止,中國已經(jīng)發(fā)布的AI大模型產(chǎn)品已經(jīng)發(fā)布了5個,而這之后,還有5個AI大模型產(chǎn)品正在趕來的路上。
2023041415292027
模型大亂斗已經(jīng)開始。
大部分國內(nèi)的大模型能力都在GPT-2的水平上,但關注度卻遠遠高于GPT-2推出時,這就造成了一種尷尬的局面——明知道還沒有完全準備好,但卻不得不積極地在推進模型發(fā)布,似乎稍微晚一點就會錯過整個市場。
的確,無論是市場還是技術本身,都在要求企業(yè)更快地將大模型推向市場。
從技術上講,越早進入市場就能越早地獲得用戶的使用數(shù)據(jù),進而推動模型優(yōu)化迭代。從市場角度而言,當國外AI大模型與產(chǎn)業(yè)結(jié)合帶來更高效率的同時,國內(nèi)企業(yè)也存在同樣的需求。
比如目前,光錐智能向多個SaaS公司調(diào)研發(fā)現(xiàn),幾乎都已經(jīng)接入GPT-3.5,目前在同步測試文心一言中。
而對于推出大模型的企業(yè)來說,這個時候搶占市場先機就變得尤為重要。
某頭部機構(gòu)負責AI的投資人告訴光錐智能,“中國現(xiàn)在被排除在ChatGPT生態(tài)之外是非常危險的?!?/span>
他認為,雖然應用層存在更大的創(chuàng)業(yè)機會,但應用層的所有應用卻都依賴于大模型而存在。就像PC互聯(lián)網(wǎng)時代,所有的桌面應用都基于Windows開發(fā),而移動互聯(lián)網(wǎng)時代所有APP又都基于Android或iOS系統(tǒng)一樣,在模型即服務的時代,也需要出現(xiàn)一些“操作系統(tǒng)”級別的底層大模型。
目前國外GPT-4已經(jīng)明確可以成為這樣的存在,但國內(nèi)還沒有相應的大模型出現(xiàn)。因此,在底層大模型的格局還未明朗的情況下,一旦大模型的市場格局發(fā)生變化,建立在大模型之上的應用也將付之東流。
2023041415292656
這也成為許多投資人不愿意現(xiàn)在就下場的原因,他們想讓這個市場再跑一跑,等待一個明確能夠成為“操作系統(tǒng)”級別的底層大模型出現(xiàn)。
所以,無論是百度還是阿里,在推出大模型之后,第一件關心的事就是——是否有更多企業(yè)能夠達成合作。
比如,在2月份明確文心一言推出計劃后,百度就開始積極推進不同行業(yè)的企業(yè)接入文心一言,到3月16日百度發(fā)布文心一言時,已有超過650家企業(yè)宣布接入文心一言生態(tài)。而在4月7日,阿里官宣“通義千問”之后,第一件事也是向企業(yè)開放測試邀請。
如今國內(nèi)的AI大模型正處在競爭“誰能成為底層操作系統(tǒng)”的階段,各家積極推出自己的大模型,開放內(nèi)測,引導企業(yè)入駐,一個核心目標就是圍繞大模型建立起自己的模型生態(tài)。
這是大廠能否在下一個時代繼續(xù)成為大廠的關鍵。下一個AI時代的船票并不是大模型,而是圍繞大模型建立起來的生態(tài)。
因此,即便所有人都在口口聲聲表示不要重復造輪子,不要浪費資源建立一個同樣的大模型,但機會當前,所有人都在重復造輪子。
但如今從百度到阿里,再從華為到商湯,底層大模型的戰(zhàn)爭也才剛剛剛開始,畢竟不只是像騰訊、字節(jié)這樣的科技巨頭,還有像王小川、王慧文、李開復等創(chuàng)業(yè)大佬也在虎視眈眈。
王小川、王慧文都先后入駐搜狐網(wǎng)絡科技大廈,五道口似乎又恢復了之前的榮光。
2023041415293965
畢竟,許多人都感覺到,“這是一次文藝復興”。
到目前為止,更多具有競爭力的玩家還沒有完全下場,但底層大模型的“百團大戰(zhàn)”卻已經(jīng)一觸即發(fā)。

03 AI熱“兩極化”,中間真空

大模型讓AI公司越來越重。
4月10日,商湯在公布“日日新SenseNova”大模型體系的同時,其實還提到另一個關鍵點,即依托于AI大裝置SenseCore實現(xiàn)“大模型+大算力”的研發(fā)體系。
為了滿足大模型海量數(shù)據(jù)訓練的需求,原本可以輕裝上陣的算法公司,開始自己做云,也自建人工智能數(shù)據(jù)中心(AIDC)。
另一個案例就是毫末,這家自動駕駛公司為了用大模型訓練數(shù)據(jù),也建了自己的智算中心。
這些垂類的AI巨頭和獨角獸,之所以要自己做的這么重,最重要的原因之一,就是市面上幾乎沒有高性能的現(xiàn)成產(chǎn)品可以滿足。
近年來,大模型參數(shù)量以指數(shù)級的速率提升,而數(shù)據(jù)量隨著多模態(tài)的引入也將大規(guī)模增長,因此就必然會導致對算力需求的劇增。例如,過去5年,超大參數(shù)AI大模型的參數(shù)量幾乎每一年提升一個數(shù)量級。過往的10年,最好的AI算法對于算力的需求增長超過了100萬倍。
一位商湯員工表示,商湯上海臨港AIDC的服務器機柜設計功耗10千瓦~25千瓦,最大可同時容納4臺左右英偉達A100服務器,但普通的服務器機柜普遍設計功耗以5千瓦居多,而單臺A100服務器的功耗即高達4.5千瓦左右。
科技巨頭就更是如此,每個巨頭都希望在自己的生態(tài)中形成閉環(huán),一定程度上也是因為整個國內(nèi)開源的生態(tài)不夠強大。
目前,大模型產(chǎn)業(yè)鏈大致可以分為數(shù)據(jù)準備、模型構(gòu)建、模型產(chǎn)品三個層次。在國外,AI大模型的產(chǎn)業(yè)鏈比較成熟,形成了數(shù)量眾多的AI Infra(架構(gòu))公司,但這一塊市場在國內(nèi)還相對空白。
而在國內(nèi),巨頭們都有一套自己的訓練架構(gòu)。
比如,華為的模型采用的是三層架構(gòu),其底層屬于通識性大模型,具備超強的魯棒性的泛化性,在這之上是行業(yè)大模型和針對具體場景和工作流程的部署模型。這種構(gòu)架的好處是,當訓練好的大模型部署到垂類行業(yè)時,可以不必再重復訓練,成本僅是上一層的5%~7%。
阿里則是為AI打造了一個統(tǒng)一底座,無論是CV、NLP、還是文生圖大模型都可以放進去這個統(tǒng)一底座中訓練,阿里訓練M6大模型需要的能耗僅是GPT-3的1%。
百度和騰訊也有相應的布局,百度擁有覆蓋超50億實體的中文知識圖譜,騰訊的熱啟動課程學習可以將萬億大模型的訓練成本降低到冷啟動的八分之一。
整體來看,各個大廠之間的側(cè)重點雖然有所不同,但主要特點就是降本增效,而能夠?qū)崿F(xiàn)這一點,很大程度上就是受益于“一手包辦”的閉環(huán)訓練體系。
這種模式在單一大廠內(nèi)部固然有優(yōu)勢,但從行業(yè)角度而言,也存在一些問題。
國外成熟的AI產(chǎn)業(yè)鏈形成了數(shù)量眾多的AI Infra公司,這些公司有的專門做數(shù)據(jù)標注、做數(shù)據(jù)質(zhì)量、或者模型架構(gòu)等。
這些企業(yè)的專業(yè)性,能夠讓他們在某一個單一環(huán)節(jié)的效率、成本、質(zhì)量上都要比大廠親自下場做得更好。
比如,數(shù)據(jù)質(zhì)量公司Anomalo就是Google Cloud和Notion的供應商,它可以通過ML自動評估和通用化數(shù)據(jù)質(zhì)量檢測能力,來實現(xiàn)數(shù)據(jù)深度觀察和數(shù)據(jù)質(zhì)量檢測。
這些公司就像汽車行業(yè)的Tier 1,通過專業(yè)的分工,能夠讓大模型企業(yè)不必重復造輪子,而只需要通過整合供應商資源,就能快速地搭建起自己模型構(gòu)架,從而降低成本。
但國內(nèi)在這一方面并不成熟,原因在于:一方面國內(nèi)大模型的主要玩家都是大廠,他們都有一套自己的訓練體系,外部供應商幾乎沒有機會進入;另一方面,國內(nèi)也缺乏足夠龐大的創(chuàng)業(yè)生態(tài)和中小企業(yè),AI供應商也很難在大廠之外找到生存的空間。
以谷歌為例,谷歌愿意將自己訓練的數(shù)據(jù)結(jié)果分享給它的數(shù)據(jù)質(zhì)量供應商,幫助供應商提高數(shù)據(jù)處理能力,供應商能力提升之后,又會反過來給谷歌提供更多高質(zhì)量數(shù)據(jù),從而形成一種良性循環(huán)。
國內(nèi)AI Infra生態(tài)的不足,直接導致的就是大模型創(chuàng)業(yè)門檻的拔高。
王慧文剛下場做光年之外的時候曾提出5000萬美金的投入,這筆錢其實是李志飛為他算的,具體可以分為2000萬美金搞算力,2000萬美金找人,1000萬美金做數(shù)據(jù)。這體現(xiàn)出一個直接的問題,如果將在中國做大模型比喻成吃上一頓熱乎飯,那必須從挖地、種菜開始。
目前,在AI 2.0的熱潮中,一個重要的特點就是“兩極化”:最熱門的要么是大模型層、要么就是應用層。而類似AI Infra(架構(gòu))的中間層,反而有很大的真空。
別都盯著造輪子,能造一顆好的螺絲也很重要。

04 結(jié)語:巨頭&創(chuàng)新者

王小川和百度的隔空口水戰(zhàn),成為最近大模型混戰(zhàn)中一個熱鬧的插曲。
“高富帥”李彥宏認為,中國基本不會再出OpenAI,用巨頭的就可以了。
“直男”王小川說,行業(yè)中有些人(李彥宏)對未來的觀點從來就沒有判斷對過,一直活在平行宇宙里。
除了陳年恩怨,這大體上可以看作是巨頭和創(chuàng)業(yè)者之間的立場對立:巨頭都喜歡包攬一切,而創(chuàng)業(yè)者則喜歡打破常規(guī)。
而科技行業(yè)的成功似乎更依仗于創(chuàng)新。畢竟,從打造AlophaGo的DeepMind,到發(fā)布ChatGPT的OpenAI,沒有一個是從巨頭中孵化出來的。
這就是創(chuàng)新者的窘境。
對于科技巨頭而言,自己造輪子固然重要,但能找到、孵化出下一個OpenAI又未嘗不可呢?

本文來自投稿,不代表增長黑客立場,如若轉(zhuǎn)載,請注明出處:http://gptmaths.com/quan/95524.html

(0)
打賞 微信掃一掃 微信掃一掃 支付寶掃一掃 支付寶掃一掃
上一篇 2023-04-14 18:49
下一篇 2023-04-15 09:58

增長黑客Growthhk.cn薦讀更多>>

發(fā)表回復

登錄后才能評論