![]()
當大模型的“暴力美學”逐漸步入深水區,全球 AI 產業的敘事邏輯正在發生深刻演變。OpenAI、Google、Anthropic 三強割據,誰能率先推開 AGI 的大門?下一代技術范式 continual learning(持續學習)將如何顛覆現有格局?
2026年1月10日的課程中,我們特別邀請到了拾象科技創始人兼 CEO 李廣密老師講授《2026AGI洞察與投資趨勢》。作為深度穿梭于硅谷與中國的一線投資人,他將帶我們跳出繁雜的現象,從宏觀視角復盤 AI 軍備競賽,預判 2026 年的AI創業勝負手。
李廣密老師立足于全球視野,深度復盤了過去三年 AI 浪潮的演進路徑,前瞻性地提出了 2026 年 AGI 發展的核心判斷。李廣密老師將結合其在硅谷的一手調研經驗,深入剖析頂級模型公司(OpenAI、Google、Anthropic)的戰略分化,探討算力基建(GPU與TPU)的陣營對抗,并揭示在“技術溢出”紅利下,創業者如何捕捉下一個千億美金級別的“新物種”。
課程不僅涵蓋了宏觀的投資策略,更通過 Cursor、ElevenLabs、Open Evidence 等前沿案例,具象化地展示了 AI 落地知識工作者、醫療、法律等垂直領域的商業潛能。
以下是課程部分精華內容,完整版內容在混沌APP。
友情提示:本文僅作為研究思考分享,不構成任何投資建議。
作者 |Guangmi,Penny,Cage,Haina,Feihong,Siqi,Nathan
轉載自 |海外獨角獸
![]()
![]()
Where are we now ?
判斷1:AI Labs競爭常態:“交替領先”+“分化”
![]()
全球AI模型的頭部格局已基本確定:OpenAI、Anthropic(Claude)和Google(Gemini)構成第一梯隊。
模型能力上個位數百分點的領先,在商業回報上往往會被放大為數倍差距,技術領先與品牌效應疊加所形成的高溢價讓這三個AI labs不僅吸納了大量了頭部人才,也分走了今天LLM領域中絕大部分價值。這一現象類似職業體育:梅西、C羅等頂尖球星可能能力上并沒有比其他優秀球員強幾十倍,但他們的商業價值和收入卻高出幾十倍。
在整個Tier 1陣營里,AI labs之間呈現出“交替領先”和“分化”的狀態。
趨勢1:技術路線分化
在通用能力彼此膠著的背景下,不同AI labs都做出了明確的戰略選擇,在模型能力的具體優化重心上也出現了分化:
?OpenAI堅定bet to C:ChatGPT在To C依然保持著斷檔式的領先優勢,目前DAU接近4.8-5億,大約是Gemini(約9000萬DAU)的 5.6 倍(備注:數據截止至2025年12月)。盡管Google的Gemini在生態上更具優勢,但ChatGPT一直在圍繞 to C場景做專門優化,體驗依然更勝一籌,從團隊做廣告、電商的投入來看,ChatGPT是在朝著“下一個 Google”發展。
?Anthropic毫無疑問專注于To B、Coding/Agent等專業領域,放棄了通用的To C市場。Claude Opus4.5在軟件開發和Agent領域依然是SOTA,在處理長任務時更可靠、效果更好且更節省Token。我們認為Opus 4.5可能是一個被低估的模型。如果沒有這種專注Coding的戰略Bet(押注),Anthropic很難在巨頭的激烈競爭中生存下來。
?Google在戰略優先級上把多模態放在首位,Gemini 3的多模態理解能力也處于斷檔式領先地位,但在Text和Coding(包括Agent)能力上,目前更多是追平OpenAI和Anthropic之前的水平;
是否理解模型特性及其未來半年的演進方向,直接決定了接下來對Agent公司的投資邏輯:是選擇“聚美優品”還是“拼多多”:
?“聚美優品”:即vertical agents(垂直智能體),這些產品往往把某個場景服務得很好,也因此能快速實現盈利能力,但面臨的風險也很現實,“通用平臺,即AI labs會不會做”?
?“拼多多”:能夠在通用平臺之上構建出了獨特價值層,具備更強的長期戰略價值。
趨勢2:兩大算力陣營
因為Google的快速追趕,算力角度看,行業也正在形成兩大對壘陣營:GPU vs TPU。這兩大陣營也會是是未來貫穿一二級科技投資的主線。
Google憑借“模型+TPU+云+產品”構建了端到端、自成一體的生態,類似LLM時代的Apple,而NVIDIA更像是LLM時代的Android,支撐起了一個龐大的生態聯盟。在NVIDIA生態下,OpenAI和Anthropic依然是“優等生”,在人才密度上略優于Google。
從當前階段看,GPU在綜合性能上仍優于TPU,但GPU受制于臺積電產能,且成本昂貴;而Google通過TPU展現出更強的成本控制潛力。與此同時,“NVIDIA + OpenAI”這條主線在短期內可能被市場低估,尤其是在OpenAI新模型持續發布的背景下。
判斷2:Google+OpenAI=$10T
![]()
因為OpenAI bet to C的策略使得它和Google更像是“頭對頭”競爭,也因此,過去一個季度,Google Gemini 3效果超預期之后,市場對OpenAI的態度立即很bearish(悲觀),但今天的AI并不是“零和博弈”,Google的崛起并不意味著NVIDIA和OpenAI的衰落:Google與OpenAI的關系,更像是短視頻時代的抖音興起時,給長視頻時代的優酷所帶來的整體增量,兩者是共同把盤子做大。
長期來看,Google和OpenAI將是一個比較好的組合,在C端市場可能會形成平分天下的局面,Google短期內因PE擴張顯得估值偏高,而OpenAI則處于被低估的狀態。
但長期來看Google與NVIDIA是最快接近10萬億美元市值的公司,Google市值從當下增長至10萬億的難度,或許小于過去從百億到千億、千億到萬億的跨越。而OpenAI的最新估值已經接近萬億美金水平。
判斷3:2026年會看到下一個范式信號
![]()
Continual Learning(持續學習)作為下一個極其重要的技術范式,這個方式在過去半年中在OpenAI、SSI、Thinking Machines Lab等頭部AI labs 、AI researchers 中逐漸擴散,并最終形成共識,對Continual Learning的探索也才剛剛開始。
我們有一個比較激進的判斷:從范式級別,今天大家熱議的機器人、世界模型、多模態,很多可能是“假問題”,而Continual Learning才是“真問題”。
從范式角度,Pre-training面臨的邊際效應遞減、投入巨大以及數據枯竭等嚴峻挑戰已經是不爭事實,例如Gemini 3使用的50T數據量已接近極限,模型的激活參數并沒有無限變大,反而變小了。
其次,今天的LLM本質上是“凍結的智能”,它們在推理時表現出色,但無法從每天的交互中實時吸取教訓。未來的模型應該從“靜態”轉向“鮮活”,在推理和交互的同時進行學習,只需更少的數據就能學得更快,實現真正的數據飛輪。這就是Continual Learning要做的事情,之所以說它是范式級的探索,也是因為一旦模型具備這樣的能力,智能進階的速率又會到達一個全新的量級。
如果Continual Learning這個問題不解決,做機器人就會像上一代做NLP或自動駕駛一樣,需要一點點去采集數據,要走10年的彎路。
![]()
Continual Learning是讓AI具備“超級學習力”
這一新范式的目標是從“存儲知識”轉向“樣本效率”(Sample Efficiency)。Ilya曾提出“超級實習生”的概念,認為真正的超級智能應像高智商實習生一樣,具備極強的學習能力,看幾個案例或寫幾行代碼就能迅速掌握業務,而非僅僅依賴百科全書式的知識存儲。
但這一新范式的成熟還需要基礎設施的支持如更長的Context、LoRA以及推理時的多模型并行采樣等,以及Continual Learning是長上下文、模型遺忘機制及數據分布漂移等5-10個學術難題的集合,因此難以在短期內迅速突破,但學界和業界普遍樂觀預計在2026年能看到明確信號,并希望能在未來1-3年內逐步解決這些子問題。
目前,早期信號已現端倪:
?Google Research發布的Nested Learning通過引入動態記憶機制,展示了初步的In-weights Learning能力。
?Cursor是目前Online RL的典型雛形,它雖然距離真正的Continual Learning尚遠,但通過捕捉用戶對代碼的接受或拒絕行為,能夠在極短周期(如小時級)內更新模型。這代表了一種趨勢:模型和產品的學習曲線將變得越來越平滑,從“靜態凍結”轉向“越用越聰明”,用戶的每一次交互不僅是使用,更是對模型的訓練。
在這一領域,OpenAI依然遙遙領先且投入最大,其次是SSI 和 Thinking Machines Lab。從團隊淵源來看,Anthropic是OpenAI最早的 Scaling team,Ilya的SSI代表了Pre-training team,而Thinking Machines Lab則是原班ChatGPT和Post-training team,這些頂尖團隊都在布局下一盤大棋。
判斷4:AGI競賽是“馬拉松+自動駕駛”,是持久戰和現金流之戰
![]()
今天的模型本質上仍是巨大的壓縮器,缺失數據類型的任務無法完成,因此需要大量冷啟動數據。盡管模型的知識儲備遠超大多數人類,但Agent尚未接觸真實工作場景。為了實現強化學習的泛化,需要收集頂尖專家在實際環境中的操作數據,例如打印店操作、SaaS使用流程、銀行系統交互或皮膚科診療記錄等。
這種情況很像自動駕駛:Agent需要處理大量長尾數據,這中間要經過很長的時間。不過,雖然全面達到L4級別困難,但在知識工作者的垂直領域,局部L3/L4已實現可觀效率提升,帶來百億美元ARR級別的價值。
所以如果回到資本和現金流的競爭:
?Google、字節這樣的優勢就相當明顯,是強共識性的 AI winner:既擁有現金流機器,人才和技術積累密度也足夠高;
?Meta雖然也有自己的資本優勢,且投入巨大,但考慮到團隊變動以及歷史的積累,結果充滿不確定性;
?OpenAI和Anthropic這樣的頭部labs在資本充裕的一級市場環境中,也可以憑借強大的融資能力實現持續的資金凈流入。
判斷5:AI必須回答商業模式和效率質疑
整個市場對于AI Bubble(泡沫)的擔憂都來自于Sam Altman提出了1.4萬億美元的Financial Obligation,客觀來說,我們可以從算力投入角度合理化這筆巨資,但從商業模式視角下很難去理解清要如何收回成本更加重要。
深入分析OpenAI的合約條款會發現,
這1.4萬億中有很大一部分(特別是2028年以后的部分)包含了創新性的“有條件解鎖”條款。
這意味著它不同于傳統軟件行業的RPO(剩余履約義務),這部分承諾相對更容易撤銷或展期。據估算,容易撤銷或展期的部分可能占到1.4萬億美元的2/3。
![]()
在目前OpenAI清晰可見的商業模式下,即使將預期拉滿,未來的收入規模也僅在2000-3000億美元之間,這僅僅能勉強抵消巨額的資本開支折舊,遠遠沒法覆蓋投入的資金成本。
![]()
?ToC市場:在訂閱制上,假設擁有40億周活用戶且訂閱率達到10%,年收入約為800億美元。這要求付費用戶規模達到4億,相當于Office Commercial的體量,甚至遠超Sam Altman預測的2030年2.2億付費用戶數。而在電商與廣告領域,AI將陷入存量博弈,如果達到Amazon或TikTok的變現水平,收入約400億美元;如果達到Google或Meta的水平,則可達1000億美元。
?ToB市場:即便假設5000億美元的SaaS應用市場全部被AI重構,且OpenAI能從中收取20%的“過路費”,其收入上限也僅為1000億美元。
而且,如果AI僅僅是創造了另一個爭奪存量廣告和電商生意的互聯網平臺,則今天所有全球資源集中涌入這個領域的意義會非常有限。
OpenAI真正的想象力收入在于那些目前尚“看不清”的Net New TAM(新增凈量),今天我們能看到相對有確定性的是AI作為新勞動力的價值釋放,甚至創造增量GDP:
?如果Agent能創造20%程序員的價值,對應的是3000億美元的IT服務市場增量;
?如果能創造20%白領的價值,這一數字將提高到3.5萬億美元。
但要做到這一點仍需要解決模型可靠性和端到端能力,依賴Continual Learning的本質突破,這也是long-horizon agents(長時程智能體)成為一個重要命題的原因。
![]()
而更遠期的還包括AI時代的消費電子新設備、以AI為中心的云架構以及Sora帶來的新娛樂形式等等,概括來說,Sam Altman此時的巨額投入,實際上是在為Something never seen提前下注。
目前我們更傾向于將AI投資視為一種“國防”開支,即巨頭們為了避免被顛覆,即便超越商業回報考量也會投光最后一分錢。NVIDIA、微軟和 AWS 會繼續支持OpenAI 和Anthropic,以維持制衡,避免Google或OpenAI一家獨大。
判斷6:AGI投資:只bet技術成長最陡峭的地方
![]()
AGI投資的核心策略是,只Bet技術成長最陡峭的地方。具體拆解下來有三條主線:
1.投資全球最領先的模型公司:只有參與最大的綜合平臺投了,才能吃到最大的beta,長期的復利才是最大的。
2.投資最領先模型所需要的算力和硅基Infra;
3.投資最領先模型技術溢出的紅利;
考慮到技術變化極快且各家交替領先,很難準確預判某一家是最終的Winner,因此最好的策略是構建一個AGIIndex,一個理想的AGI Basket配置是:OpenAI、ByteDance、Google、Anthropic、Nvidia,以及TSMC。
掃描海報二維碼學習好課:《2026AGI洞察與投資趨勢》
![]()
重要趨勢
趨勢1:模型即產品,數據及模型
![]()
模型即產品
“模型即產品”的邏輯在于,盡管Context Engineering(上下文工程)和Fine-tuning(微調)非常重要,但階躍式的產品體驗提升往往還是來自于底層的模型換代。過去三個月的產品發布再次證明了這一點:
?Sora和Veo生成結果的人物動作的一致性以及音畫同步生成的能力,本質上都源于模型的進步,Veo內部甚至已經跑通了視頻訓練的RL Pipeline;
?Nano Banana Pro生成“圖文解讀”類內容的結果很驚艷,背后也是多模態與LLM 融合后帶來的智能升級;
?Coding領域,Gemini 3 的前端生成效果優于Claude Code,但在后端邏輯上不如Claude Code和Codex,這種產品體驗的差異化說明了模型訓練本身的差異化才是關鍵。
我們在前面的重要判斷部分提到,目前目前模型的分化非常明顯,而這種分化其實也完全取決于公司的戰略選擇。頭部Labs在技術上并沒有代際差異,模型擅長什么方向,完全取決于公司決定服務誰,以及在哪個方向投入研究資源和數據。
數據即模型
“數據即模型”的底層邏輯是:今天的模型進步非常依賴于對人類“未留痕數據”的線性蒸餾。Pre-training(預訓練)已經用完了網絡、教科書、代碼庫等人類留痕數據,post training(后訓練)也用了大量人類偏好數據,現在的RL開始蒸餾那些過去不存在、現在需要規模化收集的新型數據。不同的數據類型可以用不同的能源來做一個形象的比喻:
?Pre-training數據就像石油,量大但主要油田已經快被抽干了;
?RL專家數據就像新能源,有用但產量有限、成本高且速度慢;
?Continual Learning就像核聚變,目前還沒真正突破,但一旦突破就是無敵的,模型將能在環境中自己標注數據、實現自我提升。
目前,灣區涌現了二三十家創業公司幫助模型公司搭建RL環境,或通過錄屏記錄專家操作復雜軟件的Trajectory。Mercor、Surge AI 和 Handshake等數據平臺收入增長都非常驚人。
趨勢2:2026年是多模態大年,機器人是多模態和World Model(世界模型)最重要的Interface(交互通道)
![]()
多模態技術路徑正在加速向“Omni-in,Omni-out”(指模型能同時處理和生成多種類型的數據輸入與輸出)收斂,無論Google還是OpenAI,技術路徑已逐漸一致:Auto-regressive與Diffusion Transformer正逐漸融合,視覺、音頻和文本被統一Token化并納入同一個自回歸序列建模。這意味著模型開始具備了跨模態的“通感”能力。
例如,Gemini 3和Nano Banana Pro已展示了極強的從“文字+圖片”輸入到“文字+圖片”輸出的能力,能將破碎的收據照片拼合完整并直接輸出表格。
這一趨勢最直接的受益者是Robot Learning和多模態Agent:機器人可利用合成數據訓練解決現實數據不足的問題;Agent則能通過Computer Use操作屏幕,接管人類在虛擬世界的工作流。
世界模型
![]()
世界模型是對時間和空間具有深度理解的模型,它不只是生成視頻,更能根據當前狀態和動作,模擬并預測未來的世界演化。目前領域里分為兩大技術流派:
?“實時交互派(Real-time Interactive)”:關注低延遲與可玩性,目標是取代Unity、Unreal引擎,從傳統的“3D渲染”轉向“神經推理”;
?“物理仿真派(Physics & Spatial)”:更關注物理準確性與3D一致性,即使犧牲畫質,也必須嚴格符合重力、碰撞等物理規律。它們的目標不是生成給人看的內容,而是成為AI(特別是機器人和自動駕駛Agent)的“訓練場”,解決Sim-to-Real的問題。
Robotics(機器人)
![]()
我們對機器人發展的判斷是:整個領域“GPT時刻”可能還有3-5年的距離。與LLM“先統一再分化”的路徑不同,機器人領域“Day1就是分化”的。
因為機器人缺乏統一的Pre-training基礎(如LLM的網絡文本),也沒有統一的硬件標準,加上多模態底層的進步和人才涌入,使得每個團隊都能有自己的 Bet。目前機器人正處于第一個“百花齊放”的階段,未來一兩年部分技術路線可能會收斂,但在場景和方向上依然會保持分化。
但在2025年Q4,灣區的AI Robotics公司迎來了一個集中爆發式的發布期。其中Google DeepMind和被稱為“DeepMind四小龍”的Physical Intelligence、Generalist、Dyna、Sunday尤為引人注目。這些公司的創始團隊大多與Google DeepMind一脈相承,因此在研究理念上有不少相似之處:
?都不走Simulation(仿真)路線,而是強調真實世界數據;
?都沒有一開始就做Humanoid,而是著重解決上半身、雙臂和靈巧手的Manipulation(精細操作);
?更偏重于AI Learning,致力于打造一個相對泛化的機器人大腦。
通過RL和真實數據,這些公司發布了能長時間執行精細任務的模型,如疊衣服、沖咖啡、拉拉鏈、收拾碗筷等,并開始展現出一定的泛化性,甚至在Google Robotics的研究中出現了跨硬件遷移的跡象。
![]()
從這些公司發布的模型中可以得出的核心Takeaway是:數據仍然是最重要的Bet,各家公司拿出了截然不同的Data Recipe(指收集和處理數據的具體方法論)。
?Generalist:利用改造后的Umi設備收集了27萬小時真實機器人交互數據,并聲稱發現了Scaling Law。
?Sunday:創新性地采用了“手套+眾包”的模式,完全不依賴遙操作,而是通過向美國家庭分發專利設計的手套,收集人類的動作數據再通過算法轉化為機器人數據,目前已收集了1000萬條數據;
?Physical Intelligence:Pi建立了一套在不同Airbnb真實房屋環境中持續收集數據的Pipeline,并且包含人工糾偏的數據。
而且,值得一提的是,RL在機器人領域的作用比在LLM中更為顯著。Pi發布的RECAP策略就是一個典型案例,它特別強調RL能讓機器人在疊衣服、沖咖啡等Long-horizon任務中表現得非常Robust(魯棒性)。通過Value Function和Credit Assignment,機器人像下圍棋一樣,能知道每一步操作是有助于成功還是導致失敗,從而同時從成功和失敗的軌跡中學習。這大幅提高了RL數據的利用效率,使得機器人能夠實現連續 10 小時穩定執行任務。
機器人商業化落地的重要性在日益凸顯。受限于灣區極高的人力成本,Dyna已開始積極探索B2B場景,為商家提供疊衣服、疊餐巾等具體服務,其核心策略在于扎實做好Post-training,以顯著提高落地的穩定性。
與此同時,硬件的重要性正被重新評估,甚至有研究員認為硬件可能占據了成功要素的60-70%。
趨勢3:Proactive Agent(新一代主動服務型AI智能體)是模型公司主賽場
![]()
目前的模型進步主要體現在“橫向”蒸餾人類知識,通過Post-training和 RL 拓展領域知識;而“縱向”的突破則是向Proactive Agent 進化,從被動等待用戶 Prompt的Chatbot,轉向能主動提供服務的Agent。這種形態要求模型具備三大核心能力:
?意圖識別:Agent 必須精準判斷在什么情況下需要 Take Action;
?Always-on:它需要始終在線,深入用戶的Context,獲取Slack、郵箱、日歷文檔等更多入口權限;
?長期記憶:Agent不能做完本周的任務下周就忘了,它必須記住用戶的長期目標和偏好,在合適的時間主動行動。
為什么Proactive Agent如此重要?
?它與下一個技術范式Continual Learning緊密相連,模型要想做到主動,必須具備在交互中實時學習的能力,判斷什么對用戶是重要的。
?它能構建更高維度的護城河。目前的Chatbot競爭更多是比拼規模效應和品牌,用戶遷移成本極低,但Proactive Agent能在用戶環境中學習,實現真正的個性化,先發優勢將非常明顯。
其實OpenAI的Mark Chen對未來 ChatGPT的構想也是Proactive Agent:現在的模型每次提問都要從頭推理,不會變聰明;而未來的Agent記憶將大幅升級,能從對話中學到關于用戶的“深層結構”,理解你真正關心的問題。當你下次提問時,它已經在后臺幫你反思、聯想并預備好了答案,這種體驗可能還需要新的硬件和交互方式來承載。
除了有OpenAI 通過 Pulse做類似嘗試,Thinking Machine Labs的技術博客也發布了許多關于Continual Learning的進展,特別是強調利用LoRA技術來實現個性化。如果能通過LoRA把用戶的Memory高效存儲起來,這將是一種實現個性化 Proactive Agent的可行技術路徑。
趨勢4:Neo AI Labs 會成為OpenAI的挑戰者嗎?
盡管頭部模型公司的梯隊格局已定,但在灣區,由OpenAI和DeepMind Mafia驅動的Neo AI Labs正在涌現。這些新實驗室的機會點在于探索巨頭尚未覆蓋的領域,或是押注全新的技術路線與開源生態。在這一波浪潮中,涌現了如圖所示的幾家極具代表性的公司:
![]()
趨勢5:Voice Agent(語音智能體)成為新一代OS的入口
過去12個月,Voice Agent經歷了飛速發展,從技術驗證跨越到了運營規模化部署的階段。2025年底很可能是整個Voice Agent市場的結構性拐點。
Model 層最顯著的變化是行業正在從傳統的“STT(語音轉文字)→LLM→TTS(文字轉語音)”三段式架構,轉向Real-time Speech-to-Speech(STS)的端到端解決方案。
![]()
這種新架構的最大價值在于大幅減少了反應時間,情緒表達更像人類,打斷對話也更加自然。雖然目前企業因可控性和定制化問題接受度還較低,但預計明年會有明顯的Adopt。此外,延遲優化如今只是入場券,企業真正愿意買單的是全局穩定性。例如,盡管Cartesia在延遲上做到了極致,但ElevenLabs在企業環境中的表現更穩定,因此更受企業青睞。
我們的一手調研顯示,今天TTS模型架構差異已微乎其微,真正的壁壘在于底層數據的質量與處理能力,例如醫療場景從一開始就要求100%的術語發音準確率。11Labs早期建立的數據規模與質量優勢,已構建起其他初創公司難以企及的護城河。
此外,11Labs已超越單一模態,憑借強大的品牌吸附力(如成為Netflix 等首選)、與GCP的深度綁定以及團隊極強的執行力,具備了類似操作系統層級的防御性。
在這個邏輯下,我們Voice Agents類公司更偏Vertical邏輯,即“垂直領域優于水平通用平臺”的判斷,純通用語音平臺不可避免會陷入激烈的價格戰,真正可持續的護城河,來自于對行業數據閉環與核心工作流的掌控。無論是物流調度、診所前臺,還是保險核保,最終的贏家都必須能夠深度嵌入業務系統(如TMS/EHR/CRM)。當行業數據與工作流權限形成綁定,其黏性足以有效對沖模型層持續商品化所帶來的競爭壓力。
![]()
在infra層,Voice Agent Infra的本質不再是賣通話分鐘數,而是將整條電話線托管成一套 Voice OS。Infra層的核心價值在于抽象層(如語音路由、打斷策略、Failover等),讓企業像接電話公司一樣直接接入Voice Agent,而無需自己拼湊底層模型。
在這個領域,Retell和 Vapi是目前使用最多的Startup。其中,Vapi搭建更快、場景更多;而由華人工程師團隊創立的Retell則以Engineering Work扎實著稱,更穩、延遲更低,ARR已接近$40M。此外,還有OpenAI使用的LiveKit這類開源框架,以及Cresta采用的Pipecat,它們提供了更高的可定制性。
趨勢6:LLM推理價格快速通縮
![]()
此外,目前LLM的推理價格正在經歷快速通縮,如果用MMLU作為一個統一的質量指標來衡量,推理價格的下降速度達到了每年10倍。自GPT-3發布以來,短短三年內,同等能力的模型推理成本已經下降了約1000倍。
這種通縮在高端能力上表現得更為激進,對于達到 GPT-4 水平或解決 PhD 級別科學問題(GPQA)的高難度能力,成本下降的速度在最近一年甚至是在加快的,降幅達到了約 40 倍/年。
然而,許多開發者和創業者的實際體感卻是“并不便宜”,原因在于 Agent 和多模態的應用讓請求本身的復雜度發生了質變:現在的交互不再是簡單的“一問一答”,而是演變成了一個包含多輪思考(Reasoning /Thinking 模式)、多次工具調用以及中間狀態總結的復雜Workflow。這意味著,原本只需要 1 次 API 調用就能完成的任務,現在可能需要內部進行5-10次的鏈式調用。
用戶輸入的內容量也在顯著變長,文件、多模態信息和長上下文被大量引入。最終的結果是,雖然單Token的價格便宜了10倍,但單次請求所消耗的Token用量可能同步增長了10倍。這種用量的激增在很大程度上抵消了單價下降帶來的紅利,導致從應用端的總成本來看,并沒有感受到明顯的下降。
趨勢7:ChatGPT vs Gemini
![]()
Gemini 3 的發布改變了模型競爭格局,導致ChatGPT首次因模型競爭而出現流量和用戶下跌。但與此同時,從絕對量上看,Gemini 3 對Gemini App和 Web的提升效果其實不如Nano banana明顯。
Gemini 3的主要進步集中在前端開發等生產力端的專業需求上。而在生活助手方面,尤其是移動端處理生活化問題時,ChatGPT受到的沖擊較小。從用戶粘性來看,ChatGPT在使用量和留存等方面表現出更高的粘性,這正是兩者之間分化最大的差異所在。
![]()
?流量爭奪:Gemini在“量”上逼近,ChatGPT在“質”上斷層
隨著Nano Banana 和 Gemini 3的推出,Gemini的 MAU增長迅速,已達到ChatGPT 的 20%-25%(8 月僅為10%)。然而,在用戶粘性指標上,兩者仍有顯著差距:Gemini 的 DAU/MAU 比例僅為約10%,而ChatGPT這一數字高達約25%。這意味著雖然 Gemini 的月活用戶漲得很快,但大部分用戶的使用頻率遠低于ChatGPT,ChatGPT單用戶月均會話數約為9.6次,是 Gemini的3-4倍。
?地域差異:ChatGPT守住高價值地區,Gemini農村包圍城市
ChatGPT在美國、英國、德國等高付費能力的發達市場占據絕對統治地位,商業化根基非常穩固,即使在Gemini 發布后,ChatGPT 在這些地區的免費榜上依然領先。而 Gemini 則采取了“農村包圍城市”的策略,依托 Android 生態的強力引流,在印度、巴西、印尼、越南等新興市場滲透率極高,MAU 已達到 ChatGPT 的 1/3 以上。
![]()
?用戶行為:ChatGPT 確立“Personal Assistant(個人助理)”心智
ChatGPT非生產力類Query(詢問)比例明顯上升,且工作日與周末的活躍度差距在收窄,說明用戶在周末也會頻繁使用它,更像是一個隨身攜帶的生活助手。特別是在移動端,ChatGPT的活躍度遠超 Gemini,而移動端正是個人助理場景的主戰場。相比之下,Gemini更多被用戶視為生產力工具,用于Coding、Deep Research等專業需求。
![]()
?入口之爭:Search vs Chatbot 15%
從Web流量視角來看,AI Chatbot已經成為一個值得單獨看待的“信息檢索入口”,而不再是邊緣流量。Google Search與ChatGPT的流量比例已從95:5(去年初)演變為85:15(去年10月)。這表明ChatGPT正在分流傳統搜索的流量,開啟了一種全新的信息檢索產品形態。從月活躍用戶的使用頻次來看,ChatGPT已經超過了Threads、Reddit和X,正朝著TikTok的使用深度邁進。
掃描海報二維碼學習好課:《2026AGI洞察與投資趨勢》
![]()
二級視角下的AI Beta Play
從 ChatGPT 發布以來,二級投資的Key Thesis都是AI Beta(賺“行業紅利”的錢),相信在未來相當長的時間框架內,AI Beta都會是科技創新的主旋律。
過去一個多季度,“AI Bubble”和“AI War”這兩個與 AI Beta直接相關的敘事相繼出現,我們認為:
?AI Bubble發出了合理的警訊,但并未改變AI Beta的Momentum(勢頭)本身。
?市場已經轉向了AI War,這個敘事本身即是對AI Bubble 的否定。正是因為看到了堪比大航海時代的發展機遇,才會出現百舸爭流、奮勇爭先的局面。我們對AI War的核心判斷是:市場將出現兩個勢均力敵的陣營,并大概率交替領先。
在AI Beta Basket的分配中,兩個陣營都應占有一席之地,但策略上可向暫時落后的一方稍作傾斜,針對短期敘事進行逆向投資。
Thesis1:AI Bubble?No, AI War !
OpenAI 1.4 萬億引發的 AI Bubble 恐慌我們就不再贅述,總的來說,我們認為 AI Bubble 提出了好問題,但并不改變當前的 AI Beta:
?當前的“泡沫”本質上是OpenAI Commitment的泡沫。這種承諾在未來兩年內沒有明顯的違約風險,主要的挑戰集中在三年后的展期問題上,而在估值層面,二級市場并未出現明顯的泡沫,因為市場并未基于三年后的高預期進行激進定價。
?AI仍在持續催生新物種,比如多模態推理、Proactive Agent 等,AI的新玩法也在不斷涌現,這標志著AI Beta 的浪潮仍在繼續。
![]()
因此,我們既要堅守AI Beta,又要對新物種保持極高的敏感度。如果有新物種涌現,我們將看到更大的Alpha機會(賺“新物種”的錢);反之,如果遲遲沒有新物種誕生,AI Beta確實有可能接近階段性高點。
硬件層
在硬件層面的對決中,GPU與TPU兩大陣營勢均力敵,交替領先。
![]()
但只要市場需求遠大于供給,AI Beta就是主要矛盾,Alpha是次要矛盾,因此無論是Google供應鏈還是NVIDIA供應鏈,都具備極佳的投資價值。在 AI Beta Basket的分配中,兩個陣營都應該持有,但可以向暫時落后的一方稍作傾斜。
?從產品Roadmap(路線圖)來看,NVIDIA是行業內最努力推動摩爾定律的公司
下一代 Rubin 芯片設計極其激進,功耗設計從1800W拉高到2300W,HBM帶寬從13TB/s提升到20TB/s,如果這一目標實現,Rubin將能甩開TPUv8一個身位,但激進設計的代價是容錯空間變小,TPU vs GPU的競爭也開始進入“比拼誰犯錯少”的階段。
?從商業模式視角看,NVIDIA的優勢更為清晰
雖然Gemini 3是TPU最好的廣告,但這把雙刃劍也暴露了Google 與客戶(如訓練模型的云客戶)的競爭關系。相比之下,NVIDIA 是更純粹的軍火商,擁有更多客戶且口袋更深。在Mega7 中,Amazon、Microsoft等大概率不會使用 TPU,而會堅定站在GPU陣營。
智能應用層
在智能應用層的競爭中,OpenAI 之前走的彎路只是暫時的。
過去兩年OpenAI重視Reasoning,忽略了Pre-training,但過去六個月 OpenAI 已經把資源重新集中到了Pre-training上,即使是大概率還沒用上新 Pre-training的GPT-5.2,在榜單上也已經把 Gemini 3刷了下去。
![]()
更重要的是,OpenAI在Agent(尤其是 Proactive Agent)上的布局更充分,OpenAI的團隊是由一群“由牛人組成的草臺班子”,沒有大企業病和組織限制,更能從第一性原理出發孵化新物種。
Anti-Google(反谷歌)同盟
![]()
如果Gemini的領先優勢擴大,將推動NVIDIA和 OpenAI形成更緊密的盟友關系,AI War的軟硬兩個層面會合二為一,使得局勢更加勢均力敵。
在現金流之戰中,NVIDIA拿走了產業鏈里大部分現金流,是 OpenAI 現金流緊張的源頭,如今NVIDIA應該成為OpenAI最重要的Funding Source(資金來源)。NVIDIA投資OpenAI,本質上是用未來會折舊貶值的商品(GPU),去換取未來有巨大上限的資產(OpenAI 股權),這在投資邏輯上是非常合理的。
Thesis2:新物種萌芽:Agent Potential Picks(智能體潛在的方向)
Proactive Agent目前仍處于早期萌芽階段,初步判斷 2026 年可能非常接近真正落地的時刻。在這一主題下,下列公司可能是potential winner(可能的勝者),有機會享受到趨勢紅利。但需要明確的是,從當前的市場情緒來看,AI play更多集中在硬件板塊,AI軟件敘事從25年下半年一直走弱,在板塊敘事偏弱的背景下,受益公司可能不一定會被有效price-in。
![]()
?應用新分發形態:Intuit
OpenAI APP SDK 的出現代表著 ChatGPT 已經成為了一個 Super App。它可以在與用戶對話的過程中分發流量,由 AI 推薦并直接將 UI 推送到用戶面前,無需用戶手動打開應用程序。這種分發能力的摩擦力甚至比微信小程序更低。在這個領域,上市公司中的 Intuit(INTU)是 First Mover(先行者)。Intuit 已經給了 OpenAI 1 億美元,用于購買模型用量以及在 ChatGPT 內的展示位。OpenAI 有極強的動力將 Intuit 打造成一個標桿客戶,只要能證明 Intuit 花這 1 億美金帶來了大于成本的新增收入或流量價值,就能吸引更多公司效仿。
?Agentic Commerce:Shopify
Shopping Agent的苗頭在黑五和圣誕季已經開始顯現。Shopify的優勢在于它是一個極其重要的電商后臺Infra,并且與OpenAI 和 Google兩邊都有合作。無論最終 Shopping Agent的形態收斂在何處,或者哪家模型勝出,作為“賣水人”的 Shopify 都有受益的機會。
?企業定制化:Snowflake & MongoDB
目前企業在 AI 使用上面臨“Build vs Buy”的經典問題,過去兩年主要以 Buy 為主(如購買 Copilot、Agentforce),Build 仍停留在小規模實驗階段。Data Infra公司真正受益的邏輯,需要等到企業開始有信心大規模自己 Build 新的 Agent,目前這仍處于早期觀察階段。
?新碼農:JFrog
在Coding Agent領域,JFrog(FROG)是一個值得關注的標的。JFrog 存儲的是寫完代碼編譯后的二進制構建(Artifacts),這是一個集中管理系統,且商業模式是按量計價的。如果Coding Agent導致代碼產生的應用數量爆發,JFrog 將直接受益。但仍需持謹慎態度,因為目前Coding Agent更多是減少了碼農招聘需求,尚未看到應用程序的大爆發。
?新客服:Twilio
Twilio(TWLO)提供全渠道通信 API,是按量計價的 Communication Infra,如果 Voice Agent 使用量爆發,Twilio 將從中獲益。
掃描海報二維碼學習好課:《2026AGI洞察與投資趨勢》
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.