
當(dāng)大模型的“暴力美學(xué)”逐漸步入深水區(qū),全球 AI 產(chǎn)業(yè)的敘事邏輯正在發(fā)生深刻演變。OpenAI、Google、Anthropic 三強(qiáng)割據(jù),誰(shuí)能率先推開(kāi) AGI 的大門?下一代技術(shù)范式 continual learning(持續(xù)學(xué)習(xí))將如何顛覆現(xiàn)有格局?
2026年1月10日的課程中,我們特別邀請(qǐng)到了拾象科技創(chuàng)始人兼 CEO 李廣密老師講授《2026AGI洞察與投資趨勢(shì)》。作為深度穿梭于硅谷與中國(guó)的一線投資人,他將帶我們跳出繁雜的現(xiàn)象,從宏觀視角復(fù)盤 AI 軍備競(jìng)賽,預(yù)判 2026 年的AI創(chuàng)業(yè)勝負(fù)手。
李廣密老師立足于全球視野,深度復(fù)盤了過(guò)去三年 AI 浪潮的演進(jìn)路徑,前瞻性地提出了 2026 年 AGI 發(fā)展的核心判斷。李廣密老師將結(jié)合其在硅谷的一手調(diào)研經(jīng)驗(yàn),深入剖析頂級(jí)模型公司(OpenAI、Google、Anthropic)的戰(zhàn)略分化,探討算力基建(GPU與TPU)的陣營(yíng)對(duì)抗,并揭示在“技術(shù)溢出”紅利下,創(chuàng)業(yè)者如何捕捉下一個(gè)千億美金級(jí)別的“新物種”。
課程不僅涵蓋了宏觀的投資策略,更通過(guò) Cursor、ElevenLabs、Open Evidence 等前沿案例,具象化地展示了 AI 落地知識(shí)工作者、醫(yī)療、法律等垂直領(lǐng)域的商業(yè)潛能。
以下是課程部分精華內(nèi)容,完整版內(nèi)容在混沌APP。
友情提示:本文僅作為研究思考分享,不構(gòu)成任何投資建議。
作者 |Guangmi,Penny,Cage,Haina,F(xiàn)eihong,Siqi,Nathan
轉(zhuǎn)載自 |海外獨(dú)角獸
![]()
![]()
Where are we now ?
判斷1:AI Labs競(jìng)爭(zhēng)常態(tài):“交替領(lǐng)先”+“分化”
![]()
全球AI模型的頭部格局已基本確定:OpenAI、Anthropic(Claude)和Google(Gemini)構(gòu)成第一梯隊(duì)。
模型能力上個(gè)位數(shù)百分點(diǎn)的領(lǐng)先,在商業(yè)回報(bào)上往往會(huì)被放大為數(shù)倍差距,技術(shù)領(lǐng)先與品牌效應(yīng)疊加所形成的高溢價(jià)讓這三個(gè)AI labs不僅吸納了大量了頭部人才,也分走了今天LLM領(lǐng)域中絕大部分價(jià)值。這一現(xiàn)象類似職業(yè)體育:梅西、C羅等頂尖球星可能能力上并沒(méi)有比其他優(yōu)秀球員強(qiáng)幾十倍,但他們的商業(yè)價(jià)值和收入?yún)s高出幾十倍。
在整個(gè)Tier 1陣營(yíng)里,AI labs之間呈現(xiàn)出“交替領(lǐng)先”和“分化”的狀態(tài)。
趨勢(shì)1:技術(shù)路線分化
在通用能力彼此膠著的背景下,不同AI labs都做出了明確的戰(zhàn)略選擇,在模型能力的具體優(yōu)化重心上也出現(xiàn)了分化:
?OpenAI堅(jiān)定bet to C:ChatGPT在To C依然保持著斷檔式的領(lǐng)先優(yōu)勢(shì),目前DAU接近4.8-5億,大約是Gemini(約9000萬(wàn)DAU)的 5.6 倍(備注:數(shù)據(jù)截止至2025年12月)。盡管Google的Gemini在生態(tài)上更具優(yōu)勢(shì),但ChatGPT一直在圍繞 to C場(chǎng)景做專門優(yōu)化,體驗(yàn)依然更勝一籌,從團(tuán)隊(duì)做廣告、電商的投入來(lái)看,ChatGPT是在朝著“下一個(gè) Google”發(fā)展。
?Anthropic毫無(wú)疑問(wèn)專注于To B、Coding/Agent等專業(yè)領(lǐng)域,放棄了通用的To C市場(chǎng)。Claude Opus4.5在軟件開(kāi)發(fā)和Agent領(lǐng)域依然是SOTA,在處理長(zhǎng)任務(wù)時(shí)更可靠、效果更好且更節(jié)省Token。我們認(rèn)為Opus 4.5可能是一個(gè)被低估的模型。如果沒(méi)有這種專注Coding的戰(zhàn)略Bet(押注),Anthropic很難在巨頭的激烈競(jìng)爭(zhēng)中生存下來(lái)。
?Google在戰(zhàn)略優(yōu)先級(jí)上把多模態(tài)放在首位,Gemini 3的多模態(tài)理解能力也處于斷檔式領(lǐng)先地位,但在Text和Coding(包括Agent)能力上,目前更多是追平OpenAI和Anthropic之前的水平;
是否理解模型特性及其未來(lái)半年的演進(jìn)方向,直接決定了接下來(lái)對(duì)Agent公司的投資邏輯:是選擇“聚美優(yōu)品”還是“拼多多”:
?“聚美優(yōu)品”:即vertical agents(垂直智能體),這些產(chǎn)品往往把某個(gè)場(chǎng)景服務(wù)得很好,也因此能快速實(shí)現(xiàn)盈利能力,但面臨的風(fēng)險(xiǎn)也很現(xiàn)實(shí),“通用平臺(tái),即AI labs會(huì)不會(huì)做”?
?“拼多多”:能夠在通用平臺(tái)之上構(gòu)建出了獨(dú)特價(jià)值層,具備更強(qiáng)的長(zhǎng)期戰(zhàn)略價(jià)值。
趨勢(shì)2:兩大算力陣營(yíng)
因?yàn)镚oogle的快速追趕,算力角度看,行業(yè)也正在形成兩大對(duì)壘陣營(yíng):GPU vs TPU。這兩大陣營(yíng)也會(huì)是是未來(lái)貫穿一二級(jí)科技投資的主線。
Google憑借“模型+TPU+云+產(chǎn)品”構(gòu)建了端到端、自成一體的生態(tài),類似LLM時(shí)代的Apple,而NVIDIA更像是LLM時(shí)代的Android,支撐起了一個(gè)龐大的生態(tài)聯(lián)盟。在NVIDIA生態(tài)下,OpenAI和Anthropic依然是“優(yōu)等生”,在人才密度上略優(yōu)于Google。
從當(dāng)前階段看,GPU在綜合性能上仍優(yōu)于TPU,但GPU受制于臺(tái)積電產(chǎn)能,且成本昂貴;而Google通過(guò)TPU展現(xiàn)出更強(qiáng)的成本控制潛力。與此同時(shí),“NVIDIA + OpenAI”這條主線在短期內(nèi)可能被市場(chǎng)低估,尤其是在OpenAI新模型持續(xù)發(fā)布的背景下。
判斷2:Google+OpenAI=$10T
![]()
因?yàn)镺penAI bet to C的策略使得它和Google更像是“頭對(duì)頭”競(jìng)爭(zhēng),也因此,過(guò)去一個(gè)季度,Google Gemini 3效果超預(yù)期之后,市場(chǎng)對(duì)OpenAI的態(tài)度立即很bearish(悲觀),但今天的AI并不是“零和博弈”,Google的崛起并不意味著NVIDIA和OpenAI的衰落:Google與OpenAI的關(guān)系,更像是短視頻時(shí)代的抖音興起時(shí),給長(zhǎng)視頻時(shí)代的優(yōu)酷所帶來(lái)的整體增量,兩者是共同把盤子做大。
長(zhǎng)期來(lái)看,Google和OpenAI將是一個(gè)比較好的組合,在C端市場(chǎng)可能會(huì)形成平分天下的局面,Google短期內(nèi)因PE擴(kuò)張顯得估值偏高,而OpenAI則處于被低估的狀態(tài)。
但長(zhǎng)期來(lái)看Google與NVIDIA是最快接近10萬(wàn)億美元市值的公司,Google市值從當(dāng)下增長(zhǎng)至10萬(wàn)億的難度,或許小于過(guò)去從百億到千億、千億到萬(wàn)億的跨越。而OpenAI的最新估值已經(jīng)接近萬(wàn)億美金水平。
判斷3:2026年會(huì)看到下一個(gè)范式信號(hào)
![]()
Continual Learning(持續(xù)學(xué)習(xí))作為下一個(gè)極其重要的技術(shù)范式,這個(gè)方式在過(guò)去半年中在OpenAI、SSI、Thinking Machines Lab等頭部AI labs 、AI researchers 中逐漸擴(kuò)散,并最終形成共識(shí),對(duì)Continual Learning的探索也才剛剛開(kāi)始。
我們有一個(gè)比較激進(jìn)的判斷:從范式級(jí)別,今天大家熱議的機(jī)器人、世界模型、多模態(tài),很多可能是“假問(wèn)題”,而Continual Learning才是“真問(wèn)題”。
從范式角度,Pre-training面臨的邊際效應(yīng)遞減、投入巨大以及數(shù)據(jù)枯竭等嚴(yán)峻挑戰(zhàn)已經(jīng)是不爭(zhēng)事實(shí),例如Gemini 3使用的50T數(shù)據(jù)量已接近極限,模型的激活參數(shù)并沒(méi)有無(wú)限變大,反而變小了。
其次,今天的LLM本質(zhì)上是“凍結(jié)的智能”,它們?cè)谕评頃r(shí)表現(xiàn)出色,但無(wú)法從每天的交互中實(shí)時(shí)吸取教訓(xùn)。未來(lái)的模型應(yīng)該從“靜態(tài)”轉(zhuǎn)向“鮮活”,在推理和交互的同時(shí)進(jìn)行學(xué)習(xí),只需更少的數(shù)據(jù)就能學(xué)得更快,實(shí)現(xiàn)真正的數(shù)據(jù)飛輪。這就是Continual Learning要做的事情,之所以說(shuō)它是范式級(jí)的探索,也是因?yàn)橐坏┠P途邆溥@樣的能力,智能進(jìn)階的速率又會(huì)到達(dá)一個(gè)全新的量級(jí)。
如果Continual Learning這個(gè)問(wèn)題不解決,做機(jī)器人就會(huì)像上一代做NLP或自動(dòng)駕駛一樣,需要一點(diǎn)點(diǎn)去采集數(shù)據(jù),要走10年的彎路。
![]()
Continual Learning是讓AI具備“超級(jí)學(xué)習(xí)力”
這一新范式的目標(biāo)是從“存儲(chǔ)知識(shí)”轉(zhuǎn)向“樣本效率”(Sample Efficiency)。Ilya曾提出“超級(jí)實(shí)習(xí)生”的概念,認(rèn)為真正的超級(jí)智能應(yīng)像高智商實(shí)習(xí)生一樣,具備極強(qiáng)的學(xué)習(xí)能力,看幾個(gè)案例或?qū)憥仔写a就能迅速掌握業(yè)務(wù),而非僅僅依賴百科全書(shū)式的知識(shí)存儲(chǔ)。
但這一新范式的成熟還需要基礎(chǔ)設(shè)施的支持如更長(zhǎng)的Context、LoRA以及推理時(shí)的多模型并行采樣等,以及Continual Learning是長(zhǎng)上下文、模型遺忘機(jī)制及數(shù)據(jù)分布漂移等5-10個(gè)學(xué)術(shù)難題的集合,因此難以在短期內(nèi)迅速突破,但學(xué)界和業(yè)界普遍樂(lè)觀預(yù)計(jì)在2026年能看到明確信號(hào),并希望能在未來(lái)1-3年內(nèi)逐步解決這些子問(wèn)題。
目前,早期信號(hào)已現(xiàn)端倪:
?Google Research發(fā)布的Nested Learning通過(guò)引入動(dòng)態(tài)記憶機(jī)制,展示了初步的In-weights Learning能力。
?Cursor是目前Online RL的典型雛形,它雖然距離真正的Continual Learning尚遠(yuǎn),但通過(guò)捕捉用戶對(duì)代碼的接受或拒絕行為,能夠在極短周期(如小時(shí)級(jí))內(nèi)更新模型。這代表了一種趨勢(shì):模型和產(chǎn)品的學(xué)習(xí)曲線將變得越來(lái)越平滑,從“靜態(tài)凍結(jié)”轉(zhuǎn)向“越用越聰明”,用戶的每一次交互不僅是使用,更是對(duì)模型的訓(xùn)練。
在這一領(lǐng)域,OpenAI依然遙遙領(lǐng)先且投入最大,其次是SSI 和 Thinking Machines Lab。從團(tuán)隊(duì)淵源來(lái)看,Anthropic是OpenAI最早的 Scaling team,Ilya的SSI代表了Pre-training team,而Thinking Machines Lab則是原班ChatGPT和Post-training team,這些頂尖團(tuán)隊(duì)都在布局下一盤大棋。
判斷4:AGI競(jìng)賽是“馬拉松+自動(dòng)駕駛”,是持久戰(zhàn)和現(xiàn)金流之戰(zhàn)
![]()
今天的模型本質(zhì)上仍是巨大的壓縮器,缺失數(shù)據(jù)類型的任務(wù)無(wú)法完成,因此需要大量冷啟動(dòng)數(shù)據(jù)。盡管模型的知識(shí)儲(chǔ)備遠(yuǎn)超大多數(shù)人類,但Agent尚未接觸真實(shí)工作場(chǎng)景。為了實(shí)現(xiàn)強(qiáng)化學(xué)習(xí)的泛化,需要收集頂尖專家在實(shí)際環(huán)境中的操作數(shù)據(jù),例如打印店操作、SaaS使用流程、銀行系統(tǒng)交互或皮膚科診療記錄等。
這種情況很像自動(dòng)駕駛:Agent需要處理大量長(zhǎng)尾數(shù)據(jù),這中間要經(jīng)過(guò)很長(zhǎng)的時(shí)間。不過(guò),雖然全面達(dá)到L4級(jí)別困難,但在知識(shí)工作者的垂直領(lǐng)域,局部L3/L4已實(shí)現(xiàn)可觀效率提升,帶來(lái)百億美元ARR級(jí)別的價(jià)值。
所以如果回到資本和現(xiàn)金流的競(jìng)爭(zhēng):
?Google、字節(jié)這樣的優(yōu)勢(shì)就相當(dāng)明顯,是強(qiáng)共識(shí)性的 AI winner:既擁有現(xiàn)金流機(jī)器,人才和技術(shù)積累密度也足夠高;
?Meta雖然也有自己的資本優(yōu)勢(shì),且投入巨大,但考慮到團(tuán)隊(duì)變動(dòng)以及歷史的積累,結(jié)果充滿不確定性;
?OpenAI和Anthropic這樣的頭部labs在資本充裕的一級(jí)市場(chǎng)環(huán)境中,也可以憑借強(qiáng)大的融資能力實(shí)現(xiàn)持續(xù)的資金凈流入。
判斷5:AI必須回答商業(yè)模式和效率質(zhì)疑
整個(gè)市場(chǎng)對(duì)于AI Bubble(泡沫)的擔(dān)憂都來(lái)自于Sam Altman提出了1.4萬(wàn)億美元的Financial Obligation,客觀來(lái)說(shuō),我們可以從算力投入角度合理化這筆巨資,但從商業(yè)模式視角下很難去理解清要如何收回成本更加重要。
深入分析OpenAI的合約條款會(huì)發(fā)現(xiàn),
這1.4萬(wàn)億中有很大一部分(特別是2028年以后的部分)包含了創(chuàng)新性的“有條件解鎖”條款。
這意味著它不同于傳統(tǒng)軟件行業(yè)的RPO(剩余履約義務(wù)),這部分承諾相對(duì)更容易撤銷或展期。據(jù)估算,容易撤銷或展期的部分可能占到1.4萬(wàn)億美元的2/3。
![]()
在目前OpenAI清晰可見(jiàn)的商業(yè)模式下,即使將預(yù)期拉滿,未來(lái)的收入規(guī)模也僅在2000-3000億美元之間,這僅僅能勉強(qiáng)抵消巨額的資本開(kāi)支折舊,遠(yuǎn)遠(yuǎn)沒(méi)法覆蓋投入的資金成本。
![]()
?ToC市場(chǎng):在訂閱制上,假設(shè)擁有40億周活用戶且訂閱率達(dá)到10%,年收入約為800億美元。這要求付費(fèi)用戶規(guī)模達(dá)到4億,相當(dāng)于Office Commercial的體量,甚至遠(yuǎn)超Sam Altman預(yù)測(cè)的2030年2.2億付費(fèi)用戶數(shù)。而在電商與廣告領(lǐng)域,AI將陷入存量博弈,如果達(dá)到Amazon或TikTok的變現(xiàn)水平,收入約400億美元;如果達(dá)到Google或Meta的水平,則可達(dá)1000億美元。
?ToB市場(chǎng):即便假設(shè)5000億美元的SaaS應(yīng)用市場(chǎng)全部被AI重構(gòu),且OpenAI能從中收取20%的“過(guò)路費(fèi)”,其收入上限也僅為1000億美元。
而且,如果AI僅僅是創(chuàng)造了另一個(gè)爭(zhēng)奪存量廣告和電商生意的互聯(lián)網(wǎng)平臺(tái),則今天所有全球資源集中涌入這個(gè)領(lǐng)域的意義會(huì)非常有限。
OpenAI真正的想象力收入在于那些目前尚“看不清”的Net New TAM(新增凈量),今天我們能看到相對(duì)有確定性的是AI作為新勞動(dòng)力的價(jià)值釋放,甚至創(chuàng)造增量GDP:
?如果Agent能創(chuàng)造20%程序員的價(jià)值,對(duì)應(yīng)的是3000億美元的IT服務(wù)市場(chǎng)增量;
?如果能創(chuàng)造20%白領(lǐng)的價(jià)值,這一數(shù)字將提高到3.5萬(wàn)億美元。
但要做到這一點(diǎn)仍需要解決模型可靠性和端到端能力,依賴Continual Learning的本質(zhì)突破,這也是long-horizon agents(長(zhǎng)時(shí)程智能體)成為一個(gè)重要命題的原因。
![]()
而更遠(yuǎn)期的還包括AI時(shí)代的消費(fèi)電子新設(shè)備、以AI為中心的云架構(gòu)以及Sora帶來(lái)的新娛樂(lè)形式等等,概括來(lái)說(shuō),Sam Altman此時(shí)的巨額投入,實(shí)際上是在為Something never seen提前下注。
目前我們更傾向于將AI投資視為一種“國(guó)防”開(kāi)支,即巨頭們?yōu)榱吮苊獗活嵏玻幢愠缴虡I(yè)回報(bào)考量也會(huì)投光最后一分錢。NVIDIA、微軟和 AWS 會(huì)繼續(xù)支持OpenAI 和Anthropic,以維持制衡,避免Google或OpenAI一家獨(dú)大。
判斷6:AGI投資:只bet技術(shù)成長(zhǎng)最陡峭的地方
![]()
AGI投資的核心策略是,只Bet技術(shù)成長(zhǎng)最陡峭的地方。具體拆解下來(lái)有三條主線:
1.投資全球最領(lǐng)先的模型公司:只有參與最大的綜合平臺(tái)投了,才能吃到最大的beta,長(zhǎng)期的復(fù)利才是最大的。
2.投資最領(lǐng)先模型所需要的算力和硅基Infra;
3.投資最領(lǐng)先模型技術(shù)溢出的紅利;
考慮到技術(shù)變化極快且各家交替領(lǐng)先,很難準(zhǔn)確預(yù)判某一家是最終的Winner,因此最好的策略是構(gòu)建一個(gè)AGIIndex,一個(gè)理想的AGI Basket配置是:OpenAI、ByteDance、Google、Anthropic、Nvidia,以及TSMC。
掃描海報(bào)二維碼學(xué)習(xí)好課:《2026AGI洞察與投資趨勢(shì)》
![]()
重要趨勢(shì)
趨勢(shì)1:模型即產(chǎn)品,數(shù)據(jù)及模型
![]()
模型即產(chǎn)品
“模型即產(chǎn)品”的邏輯在于,盡管Context Engineering(上下文工程)和Fine-tuning(微調(diào))非常重要,但階躍式的產(chǎn)品體驗(yàn)提升往往還是來(lái)自于底層的模型換代。過(guò)去三個(gè)月的產(chǎn)品發(fā)布再次證明了這一點(diǎn):
?Sora和Veo生成結(jié)果的人物動(dòng)作的一致性以及音畫(huà)同步生成的能力,本質(zhì)上都源于模型的進(jìn)步,Veo內(nèi)部甚至已經(jīng)跑通了視頻訓(xùn)練的RL Pipeline;
?Nano Banana Pro生成“圖文解讀”類內(nèi)容的結(jié)果很驚艷,背后也是多模態(tài)與LLM 融合后帶來(lái)的智能升級(jí);
?Coding領(lǐng)域,Gemini 3 的前端生成效果優(yōu)于Claude Code,但在后端邏輯上不如Claude Code和Codex,這種產(chǎn)品體驗(yàn)的差異化說(shuō)明了模型訓(xùn)練本身的差異化才是關(guān)鍵。
我們?cè)谇懊娴闹匾袛嗖糠痔岬剑壳澳壳澳P偷姆只浅C黠@,而這種分化其實(shí)也完全取決于公司的戰(zhàn)略選擇。頭部Labs在技術(shù)上并沒(méi)有代際差異,模型擅長(zhǎng)什么方向,完全取決于公司決定服務(wù)誰(shuí),以及在哪個(gè)方向投入研究資源和數(shù)據(jù)。
數(shù)據(jù)即模型
“數(shù)據(jù)即模型”的底層邏輯是:今天的模型進(jìn)步非常依賴于對(duì)人類“未留痕數(shù)據(jù)”的線性蒸餾。Pre-training(預(yù)訓(xùn)練)已經(jīng)用完了網(wǎng)絡(luò)、教科書(shū)、代碼庫(kù)等人類留痕數(shù)據(jù),post training(后訓(xùn)練)也用了大量人類偏好數(shù)據(jù),現(xiàn)在的RL開(kāi)始蒸餾那些過(guò)去不存在、現(xiàn)在需要規(guī)模化收集的新型數(shù)據(jù)。不同的數(shù)據(jù)類型可以用不同的能源來(lái)做一個(gè)形象的比喻:
?Pre-training數(shù)據(jù)就像石油,量大但主要油田已經(jīng)快被抽干了;
?RL專家數(shù)據(jù)就像新能源,有用但產(chǎn)量有限、成本高且速度慢;
?Continual Learning就像核聚變,目前還沒(méi)真正突破,但一旦突破就是無(wú)敵的,模型將能在環(huán)境中自己標(biāo)注數(shù)據(jù)、實(shí)現(xiàn)自我提升。
目前,灣區(qū)涌現(xiàn)了二三十家創(chuàng)業(yè)公司幫助模型公司搭建RL環(huán)境,或通過(guò)錄屏記錄專家操作復(fù)雜軟件的Trajectory。Mercor、Surge AI 和 Handshake等數(shù)據(jù)平臺(tái)收入增長(zhǎng)都非常驚人。
趨勢(shì)2:2026年是多模態(tài)大年,機(jī)器人是多模態(tài)和World Model(世界模型)最重要的Interface(交互通道)
![]()
多模態(tài)技術(shù)路徑正在加速向“Omni-in,Omni-out”(指模型能同時(shí)處理和生成多種類型的數(shù)據(jù)輸入與輸出)收斂,無(wú)論Google還是OpenAI,技術(shù)路徑已逐漸一致:Auto-regressive與Diffusion Transformer正逐漸融合,視覺(jué)、音頻和文本被統(tǒng)一Token化并納入同一個(gè)自回歸序列建模。這意味著模型開(kāi)始具備了跨模態(tài)的“通感”能力。
例如,Gemini 3和Nano Banana Pro已展示了極強(qiáng)的從“文字+圖片”輸入到“文字+圖片”輸出的能力,能將破碎的收據(jù)照片拼合完整并直接輸出表格。
這一趨勢(shì)最直接的受益者是Robot Learning和多模態(tài)Agent:機(jī)器人可利用合成數(shù)據(jù)訓(xùn)練解決現(xiàn)實(shí)數(shù)據(jù)不足的問(wèn)題;Agent則能通過(guò)Computer Use操作屏幕,接管人類在虛擬世界的工作流。
世界模型
![]()
世界模型是對(duì)時(shí)間和空間具有深度理解的模型,它不只是生成視頻,更能根據(jù)當(dāng)前狀態(tài)和動(dòng)作,模擬并預(yù)測(cè)未來(lái)的世界演化。目前領(lǐng)域里分為兩大技術(shù)流派:
?“實(shí)時(shí)交互派(Real-time Interactive)”:關(guān)注低延遲與可玩性,目標(biāo)是取代Unity、Unreal引擎,從傳統(tǒng)的“3D渲染”轉(zhuǎn)向“神經(jīng)推理”;
?“物理仿真派(Physics & Spatial)”:更關(guān)注物理準(zhǔn)確性與3D一致性,即使?fàn)奚?huà)質(zhì),也必須嚴(yán)格符合重力、碰撞等物理規(guī)律。它們的目標(biāo)不是生成給人看的內(nèi)容,而是成為AI(特別是機(jī)器人和自動(dòng)駕駛Agent)的“訓(xùn)練場(chǎng)”,解決Sim-to-Real的問(wèn)題。
Robotics(機(jī)器人)
![]()
我們對(duì)機(jī)器人發(fā)展的判斷是:整個(gè)領(lǐng)域“GPT時(shí)刻”可能還有3-5年的距離。與LLM“先統(tǒng)一再分化”的路徑不同,機(jī)器人領(lǐng)域“Day1就是分化”的。
因?yàn)闄C(jī)器人缺乏統(tǒng)一的Pre-training基礎(chǔ)(如LLM的網(wǎng)絡(luò)文本),也沒(méi)有統(tǒng)一的硬件標(biāo)準(zhǔn),加上多模態(tài)底層的進(jìn)步和人才涌入,使得每個(gè)團(tuán)隊(duì)都能有自己的 Bet。目前機(jī)器人正處于第一個(gè)“百花齊放”的階段,未來(lái)一兩年部分技術(shù)路線可能會(huì)收斂,但在場(chǎng)景和方向上依然會(huì)保持分化。
但在2025年Q4,灣區(qū)的AI Robotics公司迎來(lái)了一個(gè)集中爆發(fā)式的發(fā)布期。其中Google DeepMind和被稱為“DeepMind四小龍”的Physical Intelligence、Generalist、Dyna、Sunday尤為引人注目。這些公司的創(chuàng)始團(tuán)隊(duì)大多與Google DeepMind一脈相承,因此在研究理念上有不少相似之處:
?都不走Simulation(仿真)路線,而是強(qiáng)調(diào)真實(shí)世界數(shù)據(jù);
?都沒(méi)有一開(kāi)始就做Humanoid,而是著重解決上半身、雙臂和靈巧手的Manipulation(精細(xì)操作);
?更偏重于AI Learning,致力于打造一個(gè)相對(duì)泛化的機(jī)器人大腦。
通過(guò)RL和真實(shí)數(shù)據(jù),這些公司發(fā)布了能長(zhǎng)時(shí)間執(zhí)行精細(xì)任務(wù)的模型,如疊衣服、沖咖啡、拉拉鏈、收拾碗筷等,并開(kāi)始展現(xiàn)出一定的泛化性,甚至在Google Robotics的研究中出現(xiàn)了跨硬件遷移的跡象。
![]()
從這些公司發(fā)布的模型中可以得出的核心Takeaway是:數(shù)據(jù)仍然是最重要的Bet,各家公司拿出了截然不同的Data Recipe(指收集和處理數(shù)據(jù)的具體方法論)。
?Generalist:利用改造后的Umi設(shè)備收集了27萬(wàn)小時(shí)真實(shí)機(jī)器人交互數(shù)據(jù),并聲稱發(fā)現(xiàn)了Scaling Law。
?Sunday:創(chuàng)新性地采用了“手套+眾包”的模式,完全不依賴遙操作,而是通過(guò)向美國(guó)家庭分發(fā)專利設(shè)計(jì)的手套,收集人類的動(dòng)作數(shù)據(jù)再通過(guò)算法轉(zhuǎn)化為機(jī)器人數(shù)據(jù),目前已收集了1000萬(wàn)條數(shù)據(jù);
?Physical Intelligence:Pi建立了一套在不同Airbnb真實(shí)房屋環(huán)境中持續(xù)收集數(shù)據(jù)的Pipeline,并且包含人工糾偏的數(shù)據(jù)。
而且,值得一提的是,RL在機(jī)器人領(lǐng)域的作用比在LLM中更為顯著。Pi發(fā)布的RECAP策略就是一個(gè)典型案例,它特別強(qiáng)調(diào)RL能讓機(jī)器人在疊衣服、沖咖啡等Long-horizon任務(wù)中表現(xiàn)得非常Robust(魯棒性)。通過(guò)Value Function和Credit Assignment,機(jī)器人像下圍棋一樣,能知道每一步操作是有助于成功還是導(dǎo)致失敗,從而同時(shí)從成功和失敗的軌跡中學(xué)習(xí)。這大幅提高了RL數(shù)據(jù)的利用效率,使得機(jī)器人能夠?qū)崿F(xiàn)連續(xù) 10 小時(shí)穩(wěn)定執(zhí)行任務(wù)。
機(jī)器人商業(yè)化落地的重要性在日益凸顯。受限于灣區(qū)極高的人力成本,Dyna已開(kāi)始積極探索B2B場(chǎng)景,為商家提供疊衣服、疊餐巾等具體服務(wù),其核心策略在于扎實(shí)做好Post-training,以顯著提高落地的穩(wěn)定性。
與此同時(shí),硬件的重要性正被重新評(píng)估,甚至有研究員認(rèn)為硬件可能占據(jù)了成功要素的60-70%。
趨勢(shì)3:Proactive Agent(新一代主動(dòng)服務(wù)型AI智能體)是模型公司主賽場(chǎng)
![]()
目前的模型進(jìn)步主要體現(xiàn)在“橫向”蒸餾人類知識(shí),通過(guò)Post-training和 RL 拓展領(lǐng)域知識(shí);而“縱向”的突破則是向Proactive Agent 進(jìn)化,從被動(dòng)等待用戶 Prompt的Chatbot,轉(zhuǎn)向能主動(dòng)提供服務(wù)的Agent。這種形態(tài)要求模型具備三大核心能力:
?意圖識(shí)別:Agent 必須精準(zhǔn)判斷在什么情況下需要 Take Action;
?Always-on:它需要始終在線,深入用戶的Context,獲取Slack、郵箱、日歷文檔等更多入口權(quán)限;
?長(zhǎng)期記憶:Agent不能做完本周的任務(wù)下周就忘了,它必須記住用戶的長(zhǎng)期目標(biāo)和偏好,在合適的時(shí)間主動(dòng)行動(dòng)。
為什么Proactive Agent如此重要?
?它與下一個(gè)技術(shù)范式Continual Learning緊密相連,模型要想做到主動(dòng),必須具備在交互中實(shí)時(shí)學(xué)習(xí)的能力,判斷什么對(duì)用戶是重要的。
?它能構(gòu)建更高維度的護(hù)城河。目前的Chatbot競(jìng)爭(zhēng)更多是比拼規(guī)模效應(yīng)和品牌,用戶遷移成本極低,但Proactive Agent能在用戶環(huán)境中學(xué)習(xí),實(shí)現(xiàn)真正的個(gè)性化,先發(fā)優(yōu)勢(shì)將非常明顯。
其實(shí)OpenAI的Mark Chen對(duì)未來(lái) ChatGPT的構(gòu)想也是Proactive Agent:現(xiàn)在的模型每次提問(wèn)都要從頭推理,不會(huì)變聰明;而未來(lái)的Agent記憶將大幅升級(jí),能從對(duì)話中學(xué)到關(guān)于用戶的“深層結(jié)構(gòu)”,理解你真正關(guān)心的問(wèn)題。當(dāng)你下次提問(wèn)時(shí),它已經(jīng)在后臺(tái)幫你反思、聯(lián)想并預(yù)備好了答案,這種體驗(yàn)可能還需要新的硬件和交互方式來(lái)承載。
除了有OpenAI 通過(guò) Pulse做類似嘗試,Thinking Machine Labs的技術(shù)博客也發(fā)布了許多關(guān)于Continual Learning的進(jìn)展,特別是強(qiáng)調(diào)利用LoRA技術(shù)來(lái)實(shí)現(xiàn)個(gè)性化。如果能通過(guò)LoRA把用戶的Memory高效存儲(chǔ)起來(lái),這將是一種實(shí)現(xiàn)個(gè)性化 Proactive Agent的可行技術(shù)路徑。
趨勢(shì)4:Neo AI Labs 會(huì)成為OpenAI的挑戰(zhàn)者嗎?
盡管頭部模型公司的梯隊(duì)格局已定,但在灣區(qū),由OpenAI和DeepMind Mafia驅(qū)動(dòng)的Neo AI Labs正在涌現(xiàn)。這些新實(shí)驗(yàn)室的機(jī)會(huì)點(diǎn)在于探索巨頭尚未覆蓋的領(lǐng)域,或是押注全新的技術(shù)路線與開(kāi)源生態(tài)。在這一波浪潮中,涌現(xiàn)了如圖所示的幾家極具代表性的公司:
![]()
趨勢(shì)5:Voice Agent(語(yǔ)音智能體)成為新一代OS的入口
過(guò)去12個(gè)月,Voice Agent經(jīng)歷了飛速發(fā)展,從技術(shù)驗(yàn)證跨越到了運(yùn)營(yíng)規(guī)模化部署的階段。2025年底很可能是整個(gè)Voice Agent市場(chǎng)的結(jié)構(gòu)性拐點(diǎn)。
Model 層最顯著的變化是行業(yè)正在從傳統(tǒng)的“STT(語(yǔ)音轉(zhuǎn)文字)→LLM→TTS(文字轉(zhuǎn)語(yǔ)音)”三段式架構(gòu),轉(zhuǎn)向Real-time Speech-to-Speech(STS)的端到端解決方案。
![]()
這種新架構(gòu)的最大價(jià)值在于大幅減少了反應(yīng)時(shí)間,情緒表達(dá)更像人類,打斷對(duì)話也更加自然。雖然目前企業(yè)因可控性和定制化問(wèn)題接受度還較低,但預(yù)計(jì)明年會(huì)有明顯的Adopt。此外,延遲優(yōu)化如今只是入場(chǎng)券,企業(yè)真正愿意買單的是全局穩(wěn)定性。例如,盡管Cartesia在延遲上做到了極致,但ElevenLabs在企業(yè)環(huán)境中的表現(xiàn)更穩(wěn)定,因此更受企業(yè)青睞。
我們的一手調(diào)研顯示,今天TTS模型架構(gòu)差異已微乎其微,真正的壁壘在于底層數(shù)據(jù)的質(zhì)量與處理能力,例如醫(yī)療場(chǎng)景從一開(kāi)始就要求100%的術(shù)語(yǔ)發(fā)音準(zhǔn)確率。11Labs早期建立的數(shù)據(jù)規(guī)模與質(zhì)量?jī)?yōu)勢(shì),已構(gòu)建起其他初創(chuàng)公司難以企及的護(hù)城河。
此外,11Labs已超越單一模態(tài),憑借強(qiáng)大的品牌吸附力(如成為Netflix 等首選)、與GCP的深度綁定以及團(tuán)隊(duì)極強(qiáng)的執(zhí)行力,具備了類似操作系統(tǒng)層級(jí)的防御性。
在這個(gè)邏輯下,我們Voice Agents類公司更偏Vertical邏輯,即“垂直領(lǐng)域優(yōu)于水平通用平臺(tái)”的判斷,純通用語(yǔ)音平臺(tái)不可避免會(huì)陷入激烈的價(jià)格戰(zhàn),真正可持續(xù)的護(hù)城河,來(lái)自于對(duì)行業(yè)數(shù)據(jù)閉環(huán)與核心工作流的掌控。無(wú)論是物流調(diào)度、診所前臺(tái),還是保險(xiǎn)核保,最終的贏家都必須能夠深度嵌入業(yè)務(wù)系統(tǒng)(如TMS/EHR/CRM)。當(dāng)行業(yè)數(shù)據(jù)與工作流權(quán)限形成綁定,其黏性足以有效對(duì)沖模型層持續(xù)商品化所帶來(lái)的競(jìng)爭(zhēng)壓力。
![]()
在infra層,Voice Agent Infra的本質(zhì)不再是賣通話分鐘數(shù),而是將整條電話線托管成一套 Voice OS。Infra層的核心價(jià)值在于抽象層(如語(yǔ)音路由、打斷策略、Failover等),讓企業(yè)像接電話公司一樣直接接入Voice Agent,而無(wú)需自己拼湊底層模型。
在這個(gè)領(lǐng)域,Retell和 Vapi是目前使用最多的Startup。其中,Vapi搭建更快、場(chǎng)景更多;而由華人工程師團(tuán)隊(duì)創(chuàng)立的Retell則以Engineering Work扎實(shí)著稱,更穩(wěn)、延遲更低,ARR已接近$40M。此外,還有OpenAI使用的LiveKit這類開(kāi)源框架,以及Cresta采用的Pipecat,它們提供了更高的可定制性。
趨勢(shì)6:LLM推理價(jià)格快速通縮
![]()
此外,目前LLM的推理價(jià)格正在經(jīng)歷快速通縮,如果用MMLU作為一個(gè)統(tǒng)一的質(zhì)量指標(biāo)來(lái)衡量,推理價(jià)格的下降速度達(dá)到了每年10倍。自GPT-3發(fā)布以來(lái),短短三年內(nèi),同等能力的模型推理成本已經(jīng)下降了約1000倍。
這種通縮在高端能力上表現(xiàn)得更為激進(jìn),對(duì)于達(dá)到 GPT-4 水平或解決 PhD 級(jí)別科學(xué)問(wèn)題(GPQA)的高難度能力,成本下降的速度在最近一年甚至是在加快的,降幅達(dá)到了約 40 倍/年。
然而,許多開(kāi)發(fā)者和創(chuàng)業(yè)者的實(shí)際體感卻是“并不便宜”,原因在于 Agent 和多模態(tài)的應(yīng)用讓請(qǐng)求本身的復(fù)雜度發(fā)生了質(zhì)變:現(xiàn)在的交互不再是簡(jiǎn)單的“一問(wèn)一答”,而是演變成了一個(gè)包含多輪思考(Reasoning /Thinking 模式)、多次工具調(diào)用以及中間狀態(tài)總結(jié)的復(fù)雜Workflow。這意味著,原本只需要 1 次 API 調(diào)用就能完成的任務(wù),現(xiàn)在可能需要內(nèi)部進(jìn)行5-10次的鏈?zhǔn)秸{(diào)用。
用戶輸入的內(nèi)容量也在顯著變長(zhǎng),文件、多模態(tài)信息和長(zhǎng)上下文被大量引入。最終的結(jié)果是,雖然單Token的價(jià)格便宜了10倍,但單次請(qǐng)求所消耗的Token用量可能同步增長(zhǎng)了10倍。這種用量的激增在很大程度上抵消了單價(jià)下降帶來(lái)的紅利,導(dǎo)致從應(yīng)用端的總成本來(lái)看,并沒(méi)有感受到明顯的下降。
趨勢(shì)7:ChatGPT vs Gemini
![]()
Gemini 3 的發(fā)布改變了模型競(jìng)爭(zhēng)格局,導(dǎo)致ChatGPT首次因模型競(jìng)爭(zhēng)而出現(xiàn)流量和用戶下跌。但與此同時(shí),從絕對(duì)量上看,Gemini 3 對(duì)Gemini App和 Web的提升效果其實(shí)不如Nano banana明顯。
Gemini 3的主要進(jìn)步集中在前端開(kāi)發(fā)等生產(chǎn)力端的專業(yè)需求上。而在生活助手方面,尤其是移動(dòng)端處理生活化問(wèn)題時(shí),ChatGPT受到的沖擊較小。從用戶粘性來(lái)看,ChatGPT在使用量和留存等方面表現(xiàn)出更高的粘性,這正是兩者之間分化最大的差異所在。
![]()
?流量爭(zhēng)奪:Gemini在“量”上逼近,ChatGPT在“質(zhì)”上斷層
隨著Nano Banana 和 Gemini 3的推出,Gemini的 MAU增長(zhǎng)迅速,已達(dá)到ChatGPT 的 20%-25%(8 月僅為10%)。然而,在用戶粘性指標(biāo)上,兩者仍有顯著差距:Gemini 的 DAU/MAU 比例僅為約10%,而ChatGPT這一數(shù)字高達(dá)約25%。這意味著雖然 Gemini 的月活用戶漲得很快,但大部分用戶的使用頻率遠(yuǎn)低于ChatGPT,ChatGPT單用戶月均會(huì)話數(shù)約為9.6次,是 Gemini的3-4倍。
?地域差異:ChatGPT守住高價(jià)值地區(qū),Gemini農(nóng)村包圍城市
ChatGPT在美國(guó)、英國(guó)、德國(guó)等高付費(fèi)能力的發(fā)達(dá)市場(chǎng)占據(jù)絕對(duì)統(tǒng)治地位,商業(yè)化根基非常穩(wěn)固,即使在Gemini 發(fā)布后,ChatGPT 在這些地區(qū)的免費(fèi)榜上依然領(lǐng)先。而 Gemini 則采取了“農(nóng)村包圍城市”的策略,依托 Android 生態(tài)的強(qiáng)力引流,在印度、巴西、印尼、越南等新興市場(chǎng)滲透率極高,MAU 已達(dá)到 ChatGPT 的 1/3 以上。
![]()
?用戶行為:ChatGPT 確立“Personal Assistant(個(gè)人助理)”心智
ChatGPT非生產(chǎn)力類Query(詢問(wèn))比例明顯上升,且工作日與周末的活躍度差距在收窄,說(shuō)明用戶在周末也會(huì)頻繁使用它,更像是一個(gè)隨身攜帶的生活助手。特別是在移動(dòng)端,ChatGPT的活躍度遠(yuǎn)超 Gemini,而移動(dòng)端正是個(gè)人助理場(chǎng)景的主戰(zhàn)場(chǎng)。相比之下,Gemini更多被用戶視為生產(chǎn)力工具,用于Coding、Deep Research等專業(yè)需求。
![]()
?入口之爭(zhēng):Search vs Chatbot 15%
從Web流量視角來(lái)看,AI Chatbot已經(jīng)成為一個(gè)值得單獨(dú)看待的“信息檢索入口”,而不再是邊緣流量。Google Search與ChatGPT的流量比例已從95:5(去年初)演變?yōu)?5:15(去年10月)。這表明ChatGPT正在分流傳統(tǒng)搜索的流量,開(kāi)啟了一種全新的信息檢索產(chǎn)品形態(tài)。從月活躍用戶的使用頻次來(lái)看,ChatGPT已經(jīng)超過(guò)了Threads、Reddit和X,正朝著TikTok的使用深度邁進(jìn)。
掃描海報(bào)二維碼學(xué)習(xí)好課:《2026AGI洞察與投資趨勢(shì)》
![]()
二級(jí)視角下的AI Beta Play
從 ChatGPT 發(fā)布以來(lái),二級(jí)投資的Key Thesis都是AI Beta(賺“行業(yè)紅利”的錢),相信在未來(lái)相當(dāng)長(zhǎng)的時(shí)間框架內(nèi),AI Beta都會(huì)是科技創(chuàng)新的主旋律。
過(guò)去一個(gè)多季度,“AI Bubble”和“AI War”這兩個(gè)與 AI Beta直接相關(guān)的敘事相繼出現(xiàn),我們認(rèn)為:
?AI Bubble發(fā)出了合理的警訊,但并未改變AI Beta的Momentum(勢(shì)頭)本身。
?市場(chǎng)已經(jīng)轉(zhuǎn)向了AI War,這個(gè)敘事本身即是對(duì)AI Bubble 的否定。正是因?yàn)榭吹搅丝氨却蠛胶r(shí)代的發(fā)展機(jī)遇,才會(huì)出現(xiàn)百舸爭(zhēng)流、奮勇?tīng)?zhēng)先的局面。我們對(duì)AI War的核心判斷是:市場(chǎng)將出現(xiàn)兩個(gè)勢(shì)均力敵的陣營(yíng),并大概率交替領(lǐng)先。
在AI Beta Basket的分配中,兩個(gè)陣營(yíng)都應(yīng)占有一席之地,但策略上可向暫時(shí)落后的一方稍作傾斜,針對(duì)短期敘事進(jìn)行逆向投資。
Thesis1:AI Bubble?No, AI War !
OpenAI 1.4 萬(wàn)億引發(fā)的 AI Bubble 恐慌我們就不再贅述,總的來(lái)說(shuō),我們認(rèn)為 AI Bubble 提出了好問(wèn)題,但并不改變當(dāng)前的 AI Beta:
?當(dāng)前的“泡沫”本質(zhì)上是OpenAI Commitment的泡沫。這種承諾在未來(lái)兩年內(nèi)沒(méi)有明顯的違約風(fēng)險(xiǎn),主要的挑戰(zhàn)集中在三年后的展期問(wèn)題上,而在估值層面,二級(jí)市場(chǎng)并未出現(xiàn)明顯的泡沫,因?yàn)槭袌?chǎng)并未基于三年后的高預(yù)期進(jìn)行激進(jìn)定價(jià)。
?AI仍在持續(xù)催生新物種,比如多模態(tài)推理、Proactive Agent 等,AI的新玩法也在不斷涌現(xiàn),這標(biāo)志著AI Beta 的浪潮仍在繼續(xù)。
![]()
因此,我們既要堅(jiān)守AI Beta,又要對(duì)新物種保持極高的敏感度。如果有新物種涌現(xiàn),我們將看到更大的Alpha機(jī)會(huì)(賺“新物種”的錢);反之,如果遲遲沒(méi)有新物種誕生,AI Beta確實(shí)有可能接近階段性高點(diǎn)。
硬件層
在硬件層面的對(duì)決中,GPU與TPU兩大陣營(yíng)勢(shì)均力敵,交替領(lǐng)先。
![]()
但只要市場(chǎng)需求遠(yuǎn)大于供給,AI Beta就是主要矛盾,Alpha是次要矛盾,因此無(wú)論是Google供應(yīng)鏈還是NVIDIA供應(yīng)鏈,都具備極佳的投資價(jià)值。在 AI Beta Basket的分配中,兩個(gè)陣營(yíng)都應(yīng)該持有,但可以向暫時(shí)落后的一方稍作傾斜。
?從產(chǎn)品Roadmap(路線圖)來(lái)看,NVIDIA是行業(yè)內(nèi)最努力推動(dòng)摩爾定律的公司
下一代 Rubin 芯片設(shè)計(jì)極其激進(jìn),功耗設(shè)計(jì)從1800W拉高到2300W,HBM帶寬從13TB/s提升到20TB/s,如果這一目標(biāo)實(shí)現(xiàn),Rubin將能甩開(kāi)TPUv8一個(gè)身位,但激進(jìn)設(shè)計(jì)的代價(jià)是容錯(cuò)空間變小,TPU vs GPU的競(jìng)爭(zhēng)也開(kāi)始進(jìn)入“比拼誰(shuí)犯錯(cuò)少”的階段。
?從商業(yè)模式視角看,NVIDIA的優(yōu)勢(shì)更為清晰
雖然Gemini 3是TPU最好的廣告,但這把雙刃劍也暴露了Google 與客戶(如訓(xùn)練模型的云客戶)的競(jìng)爭(zhēng)關(guān)系。相比之下,NVIDIA 是更純粹的軍火商,擁有更多客戶且口袋更深。在Mega7 中,Amazon、Microsoft等大概率不會(huì)使用 TPU,而會(huì)堅(jiān)定站在GPU陣營(yíng)。
智能應(yīng)用層
在智能應(yīng)用層的競(jìng)爭(zhēng)中,OpenAI 之前走的彎路只是暫時(shí)的。
過(guò)去兩年OpenAI重視Reasoning,忽略了Pre-training,但過(guò)去六個(gè)月 OpenAI 已經(jīng)把資源重新集中到了Pre-training上,即使是大概率還沒(méi)用上新 Pre-training的GPT-5.2,在榜單上也已經(jīng)把 Gemini 3刷了下去。
![]()
更重要的是,OpenAI在Agent(尤其是 Proactive Agent)上的布局更充分,OpenAI的團(tuán)隊(duì)是由一群“由牛人組成的草臺(tái)班子”,沒(méi)有大企業(yè)病和組織限制,更能從第一性原理出發(fā)孵化新物種。
Anti-Google(反谷歌)同盟
![]()
如果Gemini的領(lǐng)先優(yōu)勢(shì)擴(kuò)大,將推動(dòng)NVIDIA和 OpenAI形成更緊密的盟友關(guān)系,AI War的軟硬兩個(gè)層面會(huì)合二為一,使得局勢(shì)更加勢(shì)均力敵。
在現(xiàn)金流之戰(zhàn)中,NVIDIA拿走了產(chǎn)業(yè)鏈里大部分現(xiàn)金流,是 OpenAI 現(xiàn)金流緊張的源頭,如今NVIDIA應(yīng)該成為OpenAI最重要的Funding Source(資金來(lái)源)。NVIDIA投資OpenAI,本質(zhì)上是用未來(lái)會(huì)折舊貶值的商品(GPU),去換取未來(lái)有巨大上限的資產(chǎn)(OpenAI 股權(quán)),這在投資邏輯上是非常合理的。
Thesis2:新物種萌芽:Agent Potential Picks(智能體潛在的方向)
Proactive Agent目前仍處于早期萌芽階段,初步判斷 2026 年可能非常接近真正落地的時(shí)刻。在這一主題下,下列公司可能是potential winner(可能的勝者),有機(jī)會(huì)享受到趨勢(shì)紅利。但需要明確的是,從當(dāng)前的市場(chǎng)情緒來(lái)看,AI play更多集中在硬件板塊,AI軟件敘事從25年下半年一直走弱,在板塊敘事偏弱的背景下,受益公司可能不一定會(huì)被有效price-in。
![]()
?應(yīng)用新分發(fā)形態(tài):Intuit
OpenAI APP SDK 的出現(xiàn)代表著 ChatGPT 已經(jīng)成為了一個(gè) Super App。它可以在與用戶對(duì)話的過(guò)程中分發(fā)流量,由 AI 推薦并直接將 UI 推送到用戶面前,無(wú)需用戶手動(dòng)打開(kāi)應(yīng)用程序。這種分發(fā)能力的摩擦力甚至比微信小程序更低。在這個(gè)領(lǐng)域,上市公司中的 Intuit(INTU)是 First Mover(先行者)。Intuit 已經(jīng)給了 OpenAI 1 億美元,用于購(gòu)買模型用量以及在 ChatGPT 內(nèi)的展示位。OpenAI 有極強(qiáng)的動(dòng)力將 Intuit 打造成一個(gè)標(biāo)桿客戶,只要能證明 Intuit 花這 1 億美金帶來(lái)了大于成本的新增收入或流量?jī)r(jià)值,就能吸引更多公司效仿。
?Agentic Commerce:Shopify
Shopping Agent的苗頭在黑五和圣誕季已經(jīng)開(kāi)始顯現(xiàn)。Shopify的優(yōu)勢(shì)在于它是一個(gè)極其重要的電商后臺(tái)Infra,并且與OpenAI 和 Google兩邊都有合作。無(wú)論最終 Shopping Agent的形態(tài)收斂在何處,或者哪家模型勝出,作為“賣水人”的 Shopify 都有受益的機(jī)會(huì)。
?企業(yè)定制化:Snowflake & MongoDB
目前企業(yè)在 AI 使用上面臨“Build vs Buy”的經(jīng)典問(wèn)題,過(guò)去兩年主要以 Buy 為主(如購(gòu)買 Copilot、Agentforce),Build 仍停留在小規(guī)模實(shí)驗(yàn)階段。Data Infra公司真正受益的邏輯,需要等到企業(yè)開(kāi)始有信心大規(guī)模自己 Build 新的 Agent,目前這仍處于早期觀察階段。
?新碼農(nóng):JFrog
在Coding Agent領(lǐng)域,JFrog(FROG)是一個(gè)值得關(guān)注的標(biāo)的。JFrog 存儲(chǔ)的是寫(xiě)完代碼編譯后的二進(jìn)制構(gòu)建(Artifacts),這是一個(gè)集中管理系統(tǒng),且商業(yè)模式是按量計(jì)價(jià)的。如果Coding Agent導(dǎo)致代碼產(chǎn)生的應(yīng)用數(shù)量爆發(fā),JFrog 將直接受益。但仍需持謹(jǐn)慎態(tài)度,因?yàn)槟壳癈oding Agent更多是減少了碼農(nóng)招聘需求,尚未看到應(yīng)用程序的大爆發(fā)。
?新客服:Twilio
Twilio(TWLO)提供全渠道通信 API,是按量計(jì)價(jià)的 Communication Infra,如果 Voice Agent 使用量爆發(fā),Twilio 將從中獲益。
掃描海報(bào)二維碼學(xué)習(xí)好課:《2026AGI洞察與投資趨勢(shì)》
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.