- +1
谷歌揭秘了AI競賽的底牌
在一片AI泡沫論的聲浪中,谷歌攜Gemini 3.0上演王者歸來,全面碾壓GPT5.1等競品,重登AI大模型王座。
從群嘲掉隊到逆風(fēng)翻盤,谷歌以全模態(tài)路線宣告:AI之爭已從參數(shù)軍備競賽轉(zhuǎn)向生態(tài)落地鏖戰(zhàn)。
長坡厚雪的AI賽道,正賽或許才剛剛開始,而獲勝的底牌似乎已被谷歌揭曉。

一、持續(xù)創(chuàng)新,保持不下牌桌的能力
DeepMind首席科學(xué)家(Gemini項目負(fù)責(zé)人奧里奧爾·維尼亞爾斯(Oriol Vinyals)透露,谷歌從掉隊到翻盤的秘訣,就在于“改進(jìn)了預(yù)訓(xùn)練和后訓(xùn)練”。
專家分析,Gemini 3.0的進(jìn)步可能源于谷歌的多維度創(chuàng)新,包括數(shù)據(jù)質(zhì)量提升、架構(gòu)微調(diào)、訓(xùn)練穩(wěn)定性增強(qiáng),以及Tree of Thoughts(思維樹)和Context Engineering(語境工程)等一系列前所未有的創(chuàng)新,成就了一個更“懂你”的Gemini 3.0。
大模型訓(xùn)練作為一項復(fù)雜系統(tǒng)工程,數(shù)據(jù)、算力、參數(shù)等每一個環(huán)節(jié)的增益,都能推升模型性能。
在大廠們篤信大力出奇跡的Scaling Law(規(guī)模定律),紛紛砸錢堆算力、擴(kuò)數(shù)據(jù)、加參數(shù)來提升模型性能的路徑依賴之外,還有大量調(diào)整參數(shù)、優(yōu)化算力配置、打磨數(shù)據(jù)效率的“苦活累活”。過去,華人工程師因為“只擅長在Scaling Law框架下做優(yōu)化,卻做不出 Transformer 這類架構(gòu)級創(chuàng)新”的偏見,被戲稱為“參數(shù)調(diào)優(yōu)工”。
而在Scaling Law瓶頸愈發(fā)顯現(xiàn)的當(dāng)下,“榨干Scaling Law”的本領(lǐng),恰恰成為華人工程師最明顯的優(yōu)勢。即便哪天Scaling Law在數(shù)據(jù)和算力上完全失效,至少在華人工程師規(guī)模上還會依然奏效。
事實上,華人工程師的數(shù)量和質(zhì)量,已經(jīng)成為硅谷風(fēng)投評估AI初創(chuàng)公司的核心指標(biāo)之一。
100萬,這是黃仁勛在講話里反復(fù)強(qiáng)調(diào)的數(shù)字。中國擁有100萬全職AI開發(fā)者,全天候投入AI研發(fā),而放眼整個硅谷,最多只有2萬人全職在做基礎(chǔ)模型。
雖然中國公司給出的薪酬,尚難與硅谷的競爭對手相匹敵,但正如OpenAI聯(lián)合創(chuàng)始人兼CEO山姆·奧特曼(Sam Altman)所說,“最后贏的會是‘傳教士’,而不是‘雇傭兵’”。
無論AI競賽的終點(diǎn)是AGI(通用人工智能)還是ASI(超級人工智能),人類邁向AI時代的科技長征依然雄關(guān)漫道。大浪淘沙,千帆競渡,唯有創(chuàng)新,持續(xù)創(chuàng)新,才能不被淘汰出局。
曾幾何時,谷歌仍是傲視寰球的AI霸主,它親手締造了Transformer架構(gòu),卻為OpenAI等后來者送上嫁衣。
OpenAI以顛覆性的ChatGPT開啟了生成式AI新紀(jì)元,而DeepSeek又以面壁者的姿態(tài),一舉擊碎OpenAI精心構(gòu)筑的商業(yè)壁壘。
華山之巔,沒有永遠(yuǎn)的王者。
DeepSeek證明了中國有能力贏。
谷歌證明了比贏更重要的是,保持不下牌桌的能力。
二、應(yīng)用為王,生態(tài)協(xié)同路線的降維打擊
經(jīng)歷了2023年初Bard的黯然失利,谷歌痛下決心,合并Google Brain和DeepMind兩大山頭,集中優(yōu)勢兵力All in Gemini,同時要求谷歌所有產(chǎn)品線積極尋求與Gemini整合。這既是為了集中資源打造最強(qiáng)模型,也是基于谷歌商業(yè)帝國生態(tài)優(yōu)勢作出的戰(zhàn)略選擇。應(yīng)用生態(tài)正是OpenAI等后起之秀最大的短板。
憑借Gemini 3.0,谷歌終于打通了模型+生態(tài)的任督二脈。
原生多模態(tài)能力構(gòu)成了Gemini 3.0的核心優(yōu)勢。特別值得注意的是,在ScreenSpot-Pro測試中,Gemini 3.0的得分達(dá)到72.7%,是GPT-5.1(3.6%)的20倍,表明該模型在理解屏幕截圖和用戶界面方面實現(xiàn)了質(zhì)的飛躍。正如谷歌CEO Sundar Pichai所言:"令人驚嘆的是,僅僅兩年時間,AI已從單純處理文本和圖像,發(fā)展到能夠讀懂場景。"
Gemini 3.0的發(fā)布絕非一次單純的模型升級,而是整個谷歌生態(tài)的“聯(lián)合作戰(zhàn)”。
發(fā)布當(dāng)天即實現(xiàn)與谷歌全系產(chǎn)品的深度整合,通過Gemini App、Google搜索AI模式、AI Studio和Vertex AI等渠道向用戶開放,直接觸達(dá)20億搜索月活用戶、6.5億Gemini App用戶和1300萬開發(fā)者。構(gòu)建了覆蓋消費(fèi)級應(yīng)用、企業(yè)服務(wù)和開發(fā)者工具的全模態(tài)AI產(chǎn)品矩陣。
這種“生態(tài)預(yù)裝”的策略,打破了AI模型與應(yīng)用場景的割裂感,使技術(shù)升級第一時間轉(zhuǎn)化為更智能的用戶體驗,也讓谷歌旗下原本各自為戰(zhàn)的產(chǎn)品線形成了前所未有的協(xié)同效應(yīng)——從消費(fèi)端到企業(yè)端,從產(chǎn)品層到基礎(chǔ)設(shè)施層,通過Gemini 3.0,實現(xiàn)“一通百通”。
谷歌這回的打法,是對大力飛磚模式的糾偏,也是AI應(yīng)用價值的回歸。
區(qū)別于美國算力優(yōu)先的發(fā)展路徑,中國一直堅持應(yīng)用為王的發(fā)展模式,上海一年一度的世界人工智能大會(WAIC),就是一面很好的鏡子,從大模型到具身智能、從產(chǎn)業(yè)實例到生活場景,AI應(yīng)用百花齊放、目不暇接。新一輪規(guī)劃實施的“人工智能+”行動,又持續(xù)力推AI在科研、經(jīng)濟(jì)、民生、治理等重點(diǎn)領(lǐng)域里的應(yīng)用落地。
構(gòu)建繁榮的應(yīng)用生態(tài)有兩個關(guān)鍵條件,一是足夠大的市場規(guī)模(用戶量),二是足夠開放的發(fā)展環(huán)境。
恰好中國擁有龐大的市場規(guī)模,并堅定支持AI開源的政策立場,使AI應(yīng)用能夠迅速從概念實現(xiàn)商業(yè)化、普惠化,通過“應(yīng)用—數(shù)據(jù)—技術(shù)”循環(huán),使AI真正成為經(jīng)濟(jì)社會發(fā)展新引擎,而非紙面繁榮的燒錢黑洞。
美國顯然意識到AI算力投入與應(yīng)用回報嚴(yán)重失衡的問題,最近特朗普正式簽署“創(chuàng)世紀(jì)計劃”,被稱為AI版“曼哈頓計劃”,核心目標(biāo)是:利用AI推動核聚變、芯片、生物技術(shù)等領(lǐng)域科研突破。
三、算力平權(quán),英偉達(dá)帝國的第一道裂縫
在此之前,英偉達(dá)憑借“唯一賣鏟人”的地位,幾乎壟斷了AI算力市場,以80%毛利率坐收“GPU稅”,全世界的AI公司再嫌貴,也得咬牙買單。
但Gemini 3.0完全依托谷歌自研的第七代TPU(Ironwood)訓(xùn)練得來,成本僅僅是英偉達(dá)路線的一半。
這是算力平權(quán)的標(biāo)志性轉(zhuǎn)折。
換句話說,對比深度綁定英偉達(dá)路線的OpenAI和Anthropic等AI公司,在同樣的預(yù)算下,谷歌可以干成雙倍的事情。如此懸殊的成本差距,只會造成兩個結(jié)果,要么英偉達(dá)降價,要么更多芯片開始分食英偉達(dá)的市場。
Meta就在第一時間宣布起義投誠,準(zhǔn)備下單數(shù)十億美元采購谷歌TPU,無論是否真心,都在說明一個不爭的事實,天下苦英偉達(dá)久矣。
盡管英偉達(dá)自詡領(lǐng)先行業(yè)整整一代——相較于定制化芯片,英偉達(dá)能提供更卓越的性能、更強(qiáng)的通用性與可替代性。
但Gemini 3.0證明了模型架構(gòu)和定制化芯片的深度協(xié)同,可以帶來非線性的能力突破。
市場已經(jīng)逐漸接受這一共識:不用英偉達(dá)的芯片也能訓(xùn)練出最頂級的AI模型。
目光轉(zhuǎn)到中國,這一幕似曾相識,自主可控,殊途同歸。
黃仁勛預(yù)測,“到2027年,中國將擁有比全世界其他國家加起來還多的AI算力?!?/p>
得益于相對廉價的算力,中國公司能夠用更多的資源去投入AI應(yīng)用研發(fā)。算力從“奢侈品”向“基礎(chǔ)設(shè)施”的回歸,也是AI產(chǎn)業(yè)真正走向普惠的前提。
四、架構(gòu)級創(chuàng)新,條條大路通羅馬
Gemini 3.0的卓越性能證明了Scaling Law至少目前依然有效,但活躍在AI前沿的研究者已經(jīng)把目光投向了更遠(yuǎn)的地方。
OpenAI創(chuàng)始人之一Ilya認(rèn)為,“預(yù)訓(xùn)練+Scaling”路線已經(jīng)明顯遇到瓶頸。與其盲目上大規(guī)模,不如把注意力放回到“研究范式本身”的重構(gòu)上。
這與圖靈獎得主、Meta前首席AI科學(xué)家Yann LeCun(楊立昆)堅定呼吁“LLM已死”的觀點(diǎn)高度一致。
那么,在LLM之外,AI的下一站何去何從?
World Model(世界模型)是一個公認(rèn)的選項。
李飛飛在《世界模型宣言》中旗幟鮮明地指出:LLM 已觸及天花板,空間智能才是AI的下一個十年。她為世界模型定義了三大核心能力:生成性,創(chuàng)造符合物理定律、空間一致的3D世界;多模態(tài),處理圖像、視頻、文本、動作等多種輸入;交互性,基于動作預(yù)測下一個世界狀態(tài)。這種范式轉(zhuǎn)換,使AI從“能說會道”到“能看會做”,從“描述世界”到“創(chuàng)造和互動世界”。
類腦研究或許也值得期待,因為越高級的智能,越善于小樣本學(xué)習(xí)。
Aizip聯(lián)合創(chuàng)始人陳羽北提出一個觀點(diǎn):大模型未必大在數(shù)據(jù),而是大在架構(gòu)。人腦擁有極高的數(shù)據(jù)效率,十幾歲小孩接觸的語料總共不到100億Token,但人類的大腦結(jié)構(gòu)卻非常復(fù)雜,包含860億個神經(jīng)元。類腦研究的進(jìn)展,極有可能推動AI從“暴力計算+海量數(shù)據(jù)”的低效范式,轉(zhuǎn)向“生物結(jié)構(gòu)+高效計算”的新架構(gòu)。
Ilya宣稱:AI正從“規(guī)模時代”,重新走向“科研時代”。
對于深度依賴Scaling Law紅利的OpenAI來說,不一定是好事。但對谷歌這樣的研究型公司,一定是機(jī)會。
相比在Transformer架構(gòu)下進(jìn)行極致調(diào)優(yōu),中國也早已啟動AI的架構(gòu)級創(chuàng)新計劃:
一是多路并進(jìn),加強(qiáng)人工智能基礎(chǔ)理論研究,支持多路徑技術(shù)探索和模型基礎(chǔ)架構(gòu)創(chuàng)新。
二是高效訓(xùn)推,加快研究更加高效的模型訓(xùn)練和推理方法,推動理論創(chuàng)新、技術(shù)創(chuàng)新、工程創(chuàng)新協(xié)同發(fā)展。
三是擴(kuò)充模態(tài),探索模型應(yīng)用新形態(tài),提升復(fù)雜任務(wù)處理能力,優(yōu)化交互體驗。
四是迭代提升,建立模型能力評估體系,以科學(xué)評估促進(jìn)模型能力持續(xù)迭代提升。
Gemini 3.0之后,谷歌把AI競賽打成了明牌,“老牌AI帝國”的護(hù)城河深不可測。但假以時日,中國AI的護(hù)城河可能更深更廣??萍几偁?,唯創(chuàng)新者勝。
(作者陶鶴山為數(shù)字經(jīng)濟(jì)工作者,從事數(shù)字化領(lǐng)域政策規(guī)劃)





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006
增值電信業(yè)務(wù)經(jīng)營許可證:滬B2-2017116
? 2014-2025 上海東方報業(yè)有限公司




