訂閱
糾錯
加入自媒體

文心大模型開源開放,釋放出什么信號?

2025-02-19 15:43
聽潮TI
關(guān)注

圖片

文/許雯雯

編輯/張曉

DeepSeek火爆出圈以來,其引發(fā)的蝴蝶效應(yīng)還在加劇。

昨天(2月13日),百度官宣,文心一言將于4月1日0時起全面免費(fèi),所有PC端和App端用戶均可體驗文心系列最新模型,以及超長文檔處理、專業(yè)檢索增強(qiáng)、高級AI繪畫、多語種對話等功能。

此外,文心一言即將在官網(wǎng)、App端上線的深度搜索功能,也將從4月1日起免費(fèi)開放使用。

圖片

圖/百度官微

再到今天(2月14日),百度再次宣布,未來幾個月,百度將陸續(xù)推出文心大模型4.5系列,并于6月30日起正式開源。

值得注意的是,同樣是在這兩天,從OpenAI到谷歌,也加大了大模型的開放力度,宣布了旗下大模型產(chǎn)品免費(fèi)開放的消息。

OpenAI也有望走向開源。據(jù)悉,目前OpenAI內(nèi)部正討論公開AI模型的權(quán)重等事宜。

AI巨頭步調(diào)一致走向開源開放,釋放出了一個強(qiáng)烈信號:

大模型狂奔兩年后,大模型技術(shù)在B、C兩端的落地范式,涌現(xiàn)出了新變化,對大模型廠商提出了更高的要求——他們不僅要走在大模型技術(shù)的最前沿,也要在大模型應(yīng)用爆發(fā)前夜,加速探索出大模型落地的降本路徑,率先搶跑。

百度文心大模型的開源開放,正是基于上述兩點。

一邊,過去兩年的大模型浪潮里,百度是投入力度最大、技術(shù)迭代最快、B端產(chǎn)業(yè)落地和C端應(yīng)用探索最廣、最深的AI企業(yè)之一。

截至2024年11月,文心一言的用戶規(guī)模為4.3億,文心大模型日均調(diào)用量超過15億次,較2023年增長了超過30倍。

另一邊,從模型推理到模型訓(xùn)練,百度已經(jīng)通過技術(shù)創(chuàng)新實現(xiàn)了成本的有效降低。

而當(dāng)百度、OpenAI、谷歌等AI巨頭率先轉(zhuǎn)向,當(dāng)更大限度的技術(shù)、生態(tài)開放成為產(chǎn)業(yè)共識,AI技術(shù)普惠,正加速照進(jìn)現(xiàn)實。

01

從To C到TO B,開源開放為什么成了大模型產(chǎn)業(yè)的必經(jīng)之路?

引領(lǐng)此輪大模型開放開源潮的,不只百度一家。

2月6日,OpenAI宣布ChatGPT Search向所有人開放,用戶無需注冊,來到OpenAI官網(wǎng)首頁就可以直接使用搜索功能。同一天里,谷歌也宣布,向所有人開放其最新的Gemini 2.0模型,包括Flash、Pro Experimental和Flash-Lite三個版本。

再到昨天,百度宣布免費(fèi)開放后,OpenAI快速跟進(jìn)。薩姆·奧爾特曼在社交媒體X上宣布,OpenAI新的GPT-5大模型將對ChatGPT免費(fèi)用戶無限量開放,不過更高智能版本的GPT-5仍需付費(fèi)使用。

巨頭們統(tǒng)一擺出開放姿態(tài),原因不難理解。

過去兩個多月里,DeepSeek投向大模型產(chǎn)業(yè)的石子不斷泛起漣漪。DeepSeek-v3呈現(xiàn)出的大模型訓(xùn)練上的低成本、DeepSeek-R1在模型推理上的低成本,以及DeepSeek應(yīng)用所呈現(xiàn)出來的在思維邏輯、中文、編程等方面的驚艷能力,快速助推其成為春節(jié)前后最受全球矚目的AI公司。

圖片

而其展現(xiàn)出來的,以低算力成本復(fù)現(xiàn)先進(jìn)模型的可能性、DeepSeek應(yīng)用的爆發(fā),某種程度上印證了一點:

大模型產(chǎn)業(yè),當(dāng)前已經(jīng)進(jìn)入到了需要開源開放的新階段。

客觀來看,開源和閉源,這兩條不同的技術(shù)路線并非完全對立,只是在產(chǎn)業(yè)發(fā)展的不同時期,會呈現(xiàn)出不同的特征。

比如早期的模型開源更像是營銷,Meta旗下的Llama選擇了半開源,只開源了部分參數(shù)和配置文件,但這一定程度上反而會影響模型的可驗證性和可信度。

但到了今年,大模型在度過初步發(fā)展階段后,正加速進(jìn)入AI應(yīng)用爆發(fā)階段,這一階段,開源路線顯然更利于大模型技術(shù)傳播,提高采用率。

正如李彥宏所說,“歸根結(jié)底,最重要的是應(yīng)用,而不是使用哪種大模型。不管它是開源還是閉源,更重要的是可以在應(yīng)用層創(chuàng)造什么樣的價值!

比如在B端市場,《2024中國企業(yè)AI大模型應(yīng)用現(xiàn)狀調(diào)研報告》指出,AI大模型在企業(yè)中的滲透仍處于初期階段,不過有55%已經(jīng)部署了大模型的企業(yè)和機(jī)構(gòu)認(rèn)為,已經(jīng)看到了大模型帶來的清晰業(yè)務(wù)價值。

問題在于,對很多企業(yè)尤其是中小企業(yè)而言,大模型落地過程中,成本、技術(shù)、人才和行業(yè)方案,仍然是幾個主要挑戰(zhàn),他們對AI大模型的投入,依然保持著積極且謹(jǐn)慎的矛盾態(tài)度。

IDC在《中國中小企業(yè)生成式AI及大模型應(yīng)用調(diào)查》中也提到,采用大型模型和AI技術(shù)所需要的在硬件、軟件、培訓(xùn)和數(shù)據(jù)處理等方面的成本,也是眾多中小企業(yè)面臨的一重挑戰(zhàn)。

再聚焦到C端市場來看,盡管業(yè)界還未出現(xiàn)一款真正的超級應(yīng)用,但用戶對大模型應(yīng)用的使用習(xí)慣正加速養(yǎng)成,全面開放,也是大勢所趨。

也就是說,全面開源開放,才能更好地滿足B端企業(yè)客戶、C端用戶源源不斷增長的市場需求。

我們看到,當(dāng)風(fēng)向轉(zhuǎn)變時,百度、OpenAI等大模型頭部玩家,敏銳捕捉到了信號,并率先以更積極的姿態(tài)開源、開放。

以百度為例,除了在C端全面開放文心一言,在B端,百度在大模型生態(tài)上也在逐步加大開放力度。

2月3日,百度智能云官宣,DeepSeek-R1及DeepSeek-V3兩款模型已經(jīng)上架其千帆ModelBuilder平臺。

值得注意的是,百度將這兩款模型的價格打了下來——客戶在千帆ModelBuilder平臺上調(diào)用這兩款模型的價格,僅為DeepSeek-V3官方刊例價的3折、DeepSeek-R1官方刊例價的5折,同時提供限時免費(fèi)服務(wù)。

圖片

另一邊,過去一年里,文心旗艦大模型的降價幅度也超過了90%,并且主力模型也全面免費(fèi),最大限度降低了企業(yè)創(chuàng)新試錯的成本。

當(dāng)然,更重要的是,針對接下來即將推出的最新的文心大模型4.5系列,百度也將在6月30日起正式開源——它將以更積極的姿態(tài)面對市場,攜手推動產(chǎn)業(yè)發(fā)展。

聽潮TI也注意到,從目前釋放出的信息來看,百度的開放姿態(tài),要比OpenAI更加積極——OpenAI考慮開源的,是此前已經(jīng)發(fā)布的AI模型,而百度的開源動作,則是聚焦在接下來即將發(fā)布的最新系列模型。

這意味著,面向接下來的大模型AI應(yīng)用爆發(fā)潮,百度已經(jīng)在提前搶跑。

02

以技術(shù)創(chuàng)新為基,百度跑通了大模型技術(shù)的降本路徑

“回顧過去幾百年,大多數(shù)創(chuàng)新都與降低成本有關(guān),不僅是在人工智能領(lǐng)域,甚至不僅僅是在IT行業(yè)!2月11日,在迪拜舉行的World Governments Summi2025峰會上,李彥宏如此說道。

在他看來,如果能將成本降低一定數(shù)量、一定百分比,意味著生產(chǎn)率也會提高相同的百分比,“我認(rèn)為,這幾乎就是創(chuàng)新的本質(zhì)。而今天,創(chuàng)新的速度比以前快得多!

圖片

百度創(chuàng)始人李彥宏,圖/百度官微

李彥宏此番表態(tài)背后,如今的百度,已經(jīng)跑通了大模型技術(shù)的降本路徑。而背后的支撐,正是技術(shù)創(chuàng)新。

具體來看,從大模型訓(xùn)練到推理,百度目前的降本效果都較為顯著。

先來看訓(xùn)練成本。百度自研的昆侖芯芯片和萬卡集群的建成,為大模型訓(xùn)練提供算力支持,百舸·AI異構(gòu)計算平臺,則可以承載大量數(shù)據(jù)的處理、超大模型的訓(xùn)練、高并發(fā)業(yè)務(wù)的推理,為AI任務(wù)加速,是更底層的基礎(chǔ)設(shè)施。

其中,昆侖芯的性能優(yōu)勢在于,其能在更少的計算資源下運(yùn)行大規(guī)模模型,進(jìn)而使得大模型的推理和訓(xùn)練所需的計算量減少,直接降低算力成本;

大規(guī)模集群的優(yōu)勢則在于,其可以通過任務(wù)并行調(diào)度、彈性算力管理等方式,提高計算資源利用率,避免算力閑置,提高單任務(wù)的計算效率,降低整體算力成本。近日,百度智能云成功點亮了昆侖芯三代萬卡集群,其是國內(nèi)首個正式點亮的自研萬卡集群,百度接下來計劃將進(jìn)一步擴(kuò)展至3萬卡。

圖片

圖/百度官網(wǎng)

此外,在百舸平臺的能力支撐下,百度也實現(xiàn)了對大規(guī)模集群的高效部署管理。

比如其將帶寬的有效性提升到了90%以上、通過創(chuàng)新性散熱方案有效降低了模型訓(xùn)練的能耗、通過不斷優(yōu)化并完善模型的分布式訓(xùn)練策略,將訓(xùn)練主流開源模型的集群MFU(GPU資源利用率)提升到了58%。

再來看模型的推理成本。有業(yè)內(nèi)人士分析稱,這一次文心一言全面開放,背后最大的原因之一,或許正是推理成本不斷降低。

“百度在模型推理部署方面有比較大的優(yōu)勢,尤其是在飛槳深度學(xué)習(xí)框架的支持下,其中并行推理、量化推理等都是飛槳在大模型推理上的自研技術(shù)。飛槳和文心的聯(lián)合優(yōu)化,可以實現(xiàn)推理性能提升,推理成本降低。”他進(jìn)一步分析道。

具體來看,百度是中國唯一擁有“芯片-框架-模型-應(yīng)用”這四層AI技術(shù)全棧架構(gòu)的AI企業(yè),這意味著,百度有著中國最“厚實且靈活”的技術(shù)底座,能夠?qū)崿F(xiàn)端到端優(yōu)化,不僅大幅提升了模型訓(xùn)練和推理的效率,還進(jìn)一步降低了綜合成本。

舉個例子,DeepSeek-R1和DeepSeek-V3在千帆ModelBuilder平臺更低的推理價格,正是是基于技術(shù)創(chuàng)新——百度智能云在推理引擎性能優(yōu)化技術(shù)、推理服務(wù)工程架構(gòu)創(chuàng)新,以及推理服務(wù)全鏈路安全保障上的深度融合,是把價格打下來的重要原因。

基于上述幾點來看,百度的降本路徑其實尤為清晰——基于自研技術(shù)創(chuàng)新,提升大模型在訓(xùn)練、推理過程中的資源利用率。

我們也看到,遵循這一大模型技術(shù)的降本路徑,蘿卜快跑,也在加速以更低成本落地。

去年5月,蘿卜快跑發(fā)布了全球首個支持L4級自動駕駛的大模型,進(jìn)一步提升了自動駕駛技術(shù)的安全性和泛化性,用大模型的力量讓自動駕駛“更快上路”,處理復(fù)雜交通場景的能力,完全不輸Waymo。

再聚焦到蘿卜快跑第六代無人車,其全面應(yīng)用了“百度Apollo ADFM大模型+硬件產(chǎn)品+安全架構(gòu)”的方案,通過10重安全冗余方案、6重MRC安全策略確保車輛穩(wěn)定可靠,安全水平甚至接近國產(chǎn)大飛機(jī)C919。

值得注意的是,這一過程中,蘿卜快跑無人車的成本,已經(jīng)達(dá)到或接近業(yè)界最低水平。其第六代無人車,比特斯計劃在2026年量產(chǎn)的cybercab成本還要低,甚至是Waymo的1/7。

這某種程度上也加速了蘿卜快跑的落進(jìn)程。

截至目前,蘿卜快跑已經(jīng)在北上廣深等十多個城市,以及中國香港開啟道路測試。百度此前透露,蘿卜快跑累計訂單已經(jīng)超過800萬單。李彥宏也提到,蘿卜快跑的L4級自動駕駛安全測試?yán)锍汤塾嬕殉^1.3億公里,出險率僅為人類司機(jī)的1/14/。

與此同時,蘿卜快跑在中國市場更復(fù)雜的城市路況下積累的測試?yán)锍蹋矠槠溟_拓中東、東南亞等新興市場埋下了伏筆。

03

應(yīng)用爆發(fā)年,百度的下一步怎么走?

“我們生活在一個非常激動人心的時代。在過去,當(dāng)我們談?wù)撃柖蓵r說,每18個月性能會翻倍、成本會減半;但今天,當(dāng)我們談?wù)摯笳Z言模型時,可以說每12個月,推理成本就可以降低90%以上。這比我們過去幾十年經(jīng)歷的計算機(jī)革命要快得多。”2月11日的那場峰會上,李彥宏如此說道。

事實上,回顧過去一年里大模型賽道的動態(tài),從價格戰(zhàn)到大模型廠商的路徑分化,到kimi的出圈,到AI Agent的爆發(fā)之勢,再到DeepSeek的異軍突起,以及其所帶來的大模型開源開放潮,不難發(fā)現(xiàn):

當(dāng)下,大模型產(chǎn)業(yè)正加速邁入新的周期——技術(shù)迭代的速度越來越快了、技術(shù)創(chuàng)新的未知想象空間更廣闊了、大模型技術(shù)降本的速度更快了、大模型應(yīng)用的爆發(fā)點更近了。

這同時也意味著,從市場競爭的視角來看,大模型廠商接下來的比拼維度,也將更加豐富。

他們既要拼技術(shù)創(chuàng)新、拼生態(tài)賦能、也要拼開放力度和降本能力、還要拼應(yīng)用。

不過,參考百度的降本路徑,長遠(yuǎn)來看,最核心的比拼,依然聚焦在一點——誰能持續(xù)走在大模型技術(shù)創(chuàng)新的最前沿。

圖片

我們注意到,這也是百度的長期思路。

“創(chuàng)新是不能被計劃的。你不知道創(chuàng)新何時何地到來,你所能做的是,營造一個有利于創(chuàng)新的環(huán)境。”李彥宏如此表示。

這對應(yīng)的是,盡管技術(shù)進(jìn)步和技術(shù)創(chuàng)新在不斷降本,百度接下來還是會在芯片、數(shù)據(jù)中心、云基礎(chǔ)設(shè)施上持續(xù)大力投入,來打造出更好、更智能的下一代、下下一代模型。

比如百度還在不斷豐富其大模型矩陣。

目前,文心大模型矩陣中,包括了Ernie 4.0 Turbo等旗艦大模型、Ernie Speed等輕量模型,也包括基于基礎(chǔ)模型生產(chǎn)的系列思考模型和場景模型,以滿足不同應(yīng)用的需求。

去年三季度,百度還推出了Ernie Speed Pro和Ernie Lite Pro兩款增強(qiáng)版的輕量模型。

再到今年,從已經(jīng)釋放出的消息看,文心大模型4.5系列、5.0系列也將發(fā)布。

另一方面,我們也看到,百度更加積極的開源開放姿態(tài)背后,其實繼續(xù)延續(xù)了此前的理念——加速推動大模型在B端業(yè)務(wù)場景中的應(yīng)用進(jìn)程,以及在C端應(yīng)用上的探索。

最后,如李彥宏所說,“也許,在某個時刻你會找到一條捷徑,比如說只需600萬美元就能訓(xùn)練出一個模型,但在此之前,你可能已經(jīng)花費(fèi)了數(shù)十億美元,用來探索哪條路才是花費(fèi)這600萬美元的正確途徑!

對百度而言,用持續(xù)高壓強(qiáng)式的技術(shù)投入營造創(chuàng)新環(huán)境,其實是一門“笨功夫”,但好在這足夠穩(wěn)健、足夠踏實,潛在的機(jī)會也更大。

一來,此前文心大模型的調(diào)用量就已經(jīng)是國內(nèi)最高,如今開源之后,其調(diào)用量預(yù)計將明顯提升,進(jìn)一步擴(kuò)大文心大模型的使用范圍;

二來,從大模型生態(tài)來看,百度過去已經(jīng)基于開放姿態(tài)建立起了生態(tài)優(yōu)勢。

比如百度早在2016年就推出了開源的飛槳框架;百度的千帆大模型平臺,也是當(dāng)前業(yè)內(nèi)接入模型數(shù)量最多的,支持國內(nèi)外近百家主流模型。

由此可以預(yù)見,如今在更大力度推動大模型開源、開放后,在新一輪大模型競爭中,百度已經(jīng)開始搶跑了。

       原文標(biāo)題 : 文心大模型開源開放,釋放出什么信號?

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標(biāo)題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號