【導讀】從模型具備邏輯推理,到非專業人士也能用自然語言“氛圍編程”,再到智能體將互聯網從“信息網絡”重構為“行動網絡”,我們正處在一個被大模型全面重塑的時代。在 2025 全球產品經理大會中,奇點智能研究院院長、CSDN 高級副總裁李建忠預言了孤立 App 時代的終結和“伴隨式”人機交互的興起。跟隨他的思考,我們將清晰地看到 AI 如何從技術底層到產品表象,一步步顛覆我們習以為常的數字世界。
作者 | 李建忠
出品丨AI 科技大本營(ID:rgznai100)
大家好!全球產品經理大會(PM-Summit)從去年 9 月到現在,短短一年的時間,感覺在 AI 領域已經經歷了好幾個迭代。
![]()
我今天分享的題目是《大模型驅動的 AI 產業生態和產品創新》,聊聊近一年來在這方面的研究和思考。
![]()
整個演講分為四個部分:大模型推理范式轉換、應用開發范式轉換、人機交互范式轉換、智能體生態演進。后兩個部分是今天演講的重點。
![]()
首先來看第一部分:推理范式轉換,這是去年以來整個大模型最大的變化:
![]()
去年 9 月份之前,主流的模型都是訓練模型。9 月份之后,OpenAI o1 通過強化學習實現了模型推理能力的大幅度提升。再到今年 1 月份, DeepSeek R1 在全球第一個開源推理模型,引領整個業界的主流模型都進入推理范式。
![]()
我有三句話,快速總結它們的特點:“預訓練”是模型在“講知識”;“后訓練”是“講文明”,和人類價值觀對齊,它們共同構成模型的“快思考”能力;“推理”是“講邏輯”,它構成了模型的“慢思考”能力。
這里面的核心是強化學習,強化學習之父 Richard Sutton,也是去年的圖靈獎獲得者,今年 4 月份有一篇論文《Welcome to the Era of Experience》,我覺得蠻重要的。
![]()
這篇論文講了之前的訓練模型,主要基于人類現存數據,是人類知識的“回聲室”,模型的上限就是人類現有知識的總和。但有了強化學習,整個 AI 進入一個新的稱為“經驗數據的時代”。注意,這個經驗不是人類的經驗,是 AI 通過使用強化學習 self-play 獲得的獎賞和懲罰反饋,由機器產生的合成數據來訓練模型。最早的例子是 AlphaGo 所謂“37 手”(move 37)走出了人類棋手從未有過的招數。那時候的 AlphaGo 還是垂直模型,現在將強化學習引入通用大模型,在預訓練的基礎上進行自我迭代,這使得 AI 有機會探索出超越人類知識邊界的創新。
我們回顧一下去年 9 月份之前,其實業界一度有一種言論是“Scaling Law 是不是失效了?”后來我們發現不是 Scaling Law 失效了,是 Scaling Law 的一個條件:數據、也就是公域互聯網上的數據幾乎被耗光了,所以它放緩了。雖然預訓練階段的 Scaling Law 放緩,但有了強化學習之后,我們發現它在另外兩個方面“測試時 Test Time“和”強化學習階段“的 Scaling Law 又加上了。三者疊加,我們看到去年 9 月份之后,整個模型仍然遵循 Scaling Law,隨著規模擴展,性能不斷攀升。
![]()
主流 SOTA 模型隨著推理范式的轉換,今年還有一個比較大的變化是:紛紛內置了整個Agent和Tool Use的能力訓練,向Agentic Model所謂智能體模型迭代。主要依賴的就是強化學習在動態環境中進行試錯學習決策策略和工具使用,使得整個大模型從“給用戶建議”演進為”幫用戶做事情”。
![]()
這是今年 3 月份之后,SOTA 類模型很突出的一個表現,包括最近的 GPT-5 的發布,在 Agent 和 Tool Use 方面上了很大的訓練力度,這是值得我們特別注意的模型側的發展趨勢。
接下來我們來看第二部分應用開發范式的轉換。
![]()
氛圍編程(Vibe Coding)是最近興起的一個話題。這個在軟件開發領域的爭議也非常大。
![]()
在大模型之前,軟件開發主要靠程序員直接使用計算機語言進行編程。22 年之后,大家發現可以使用大模型生成代碼,進入 AI 輔助編程(所謂 AI Copilot)階段。
到今年,非專業軟件開發人員使用自然語言來進行的“氛圍編程”(所謂 Vibe Coding)成為一支崛起的新興力量。很多傳統軟件工程的人對于 Vibe Coding 看不上或者看不起,覺得不懂編程語言理論/編譯器/算法/架構的非專業人士、只能做一些小游戲、小應用,到了嚴肅的大規模企業級軟件領域,很難 work。所以覺得氛圍編程是炒作,是雕蟲小技。
我覺得面對創新事務,這樣一棍子打死是非常危險的。實際上歷史上的很多創新剛開始看起來,都是從邊緣領域、人們看不起、看不上的領域開始的。我覺得我們需要拋掉傳統軟件工程理論來看待氛圍編程。
先回顧一下歷史,在 1995~2000 年左右互聯網早期起來的時候,有了 Web 網頁編程,也就是 HTML/JS/CSS。那時候傳統軟件工程的人也看不上那時的 Web 編程,甚至認為這些寫標記語言、腳本語言的不叫編程。這個說法今天看起來相當荒謬了,實際上 Web 網頁編程后來隨著互聯網的突飛猛進創造了人類歷史上“用戶量最大”、“數量最多”的軟件規模。今天相信大家都認可 Web 編程是軟件歷史上非常偉大的創新。順便提一句,基于 HTTP 的 Web 編程也不是傳統主流計算機人搞的,是歐洲核子研究組織(CERN)搞得。典型的“邊緣人士”做出的顛覆式創新。
我們今天談的氛圍編程,大家也要用這樣一個全新的視角來看。我個人認為,氛圍編程不是來開發傳統軟件的。傳統企業級的大型軟件,仍然遵循傳統軟件工程理論,需要使用 AI 輔助編程(AI Copilot)在軟件開發生命周期的每一個環節(包括架構、設計、編碼、測試…..)利用 AI 來提效。
氛圍編程和 AI 輔助編程不同,它的目的不在于提效。而是開創全新的疆域,帶領軟件開發進入一個新的增量市場。這個增量市場是什么呢?我這里提一個新概念叫“可塑軟件(Malleable Software)。
面向對象和交互設計奠基人、施樂 PARC 研究院的開創者、也是早期圖靈獎的獲得者 Alan Kay,在八十年代有一個預言叫“軟件未來應該像文檔一樣可以隨時編輯”。
![]()
這個提法很早,無奈當時的技術并不能支持這一點。我覺得今天的氛圍編程有機會實現 Alan Kay 當年提出的這個愿景。氛圍編程會帶來普通大眾用戶(而非專業程序員)使用自然語言來實現軟件創造的平權時代。它的核心是改變軟件的生產和交付方式。怎么改變呢?
我們今天的軟件產品,都是標準化產品,簡單說我們的產品經理給用戶定義什么樣的產品,用戶就只能這樣用這個產品。部分軟件支持一些后臺配置選項,但它還是由產品經理框定在標準化軟件一開始的設計方案里。
但如果我們仔細觀察用戶使用軟件的行為,比如一萬個用戶使用 Photoshop,實際上有一萬種用法,一萬種用戶旅程、使用的功能點也不盡相同。但很遺憾,由于生產軟件的成本高昂,盡管有非常多元的需求,軟件廠商只能開發標準化軟件。
但是有了氛圍編程,未來的軟件廠商可以做好軟件底座(這部分仍然要使用傳統的軟件工程,AI Copilot 在這方面主要是提效),然后在界面和交互層,開放給普通用戶,使用氛圍編程來進行二次加工和個性化定制。由于使用自然語言編程,人人都可以參與到這樣的軟件二次創作中。“一萬個人、可以基于 Photoshop 底座軟件有一萬個不同的個性化定制”,這便是“可塑軟件”。“可塑軟件”可能會帶來顛覆式的軟件交付方式和生產方式變革。特別是新一代的 Agent 應用。
另外,因為氛圍編程極大地降低了軟件的生產成本,可以針對各種短期需求來開發軟件。傳統上,因為軟件開發成本極高,這部分需求就被壓抑了。氛圍編程生產的軟件可能呈現一種“即用即拋”的特點,不一定再像傳統軟件那樣追求復用性。
傳統軟件工程一直強調的“可復用性、可擴展性”底層原因還是因為軟件開發成本太高了。當然我們說氛圍編程,它仍需要傳統軟件作為底座,就像互聯網 Web 前端仍然需要后端系統級軟件提供 API 作為底座。
接下來談談最近比較熱的上下文工程。
![]()
很多產品經理,去年或者前年都在鉆研“提示詞工程”,怎么把大模型的能力給它壓榨出來,各種招數。但是今年大家發現提示詞在長任務上、特別是面向 Agent 類的任務上,作用有限。
為什么?因為去年之前主流的大模型都是訓練模型,發揮訓練模型的能力,用好提示詞就可以。但是今年以來主流大模型轉向推理模型,Agentic Model,這時候要發揮優秀的推理能力,“上下文工程”就很重要的。要模型做出最優質的決策,就需要給出最全面、準確的上下文:用戶需求、任務目標、場景信息、歷史交互、資源約束、規則邊界等。
其實,這就是智能的本質,人類也如此,假設愛因斯坦這樣聰明的大腦,我們給他的是模糊不清的上下文,愛因斯坦也給不出一個正確的決策。
這讓我想起在大模型之前大概 2009 年,在硅谷從 Netflix 流行的一種組織管理文化叫“Context、Not Control(提供上下文、而非控制)”,是對組織創新文化非常精辟的一種總結,后來到國內也被字節張一鳴等互聯網公司奉為經典。這個當時當然不是針對 Agent,而是講針對人構成的組織,如何激發創新活力的管理哲學。
![]()
我發現這個管理哲學非常適合 Agent。就是針對智能體,我們也不要用傳統的那種所謂流程化、規則化的思維去控制它。反倒你應該給它提供充足的上下文,然后 Agent 就會以它的智能、它的創新方式來提供解決方案。
控制(Control)是圖靈-馮諾依曼計算時代的精髓,而神經網絡計算時代的精髓在于上下文(Context)。
第三部分,人機交互范式轉換。這也是我這幾年研究相對比較集中的領域,我認為這可能是 AI 爆發潛力最大的地方。
![]()
張小龍最早在 2012 年有一個言論,被后來認為是非常睿智的方向性判斷,他當時講“PC 互聯網的入口是搜索框,移動互聯網的入口是二維碼”,那延續此問:AI時代的入口是什么?我的答案是“自然語言的對話界面”。
![]()
注意我沒有說“對話框”,因為對話框并不能囊括所有 AI 交互的入口形態。比如智能眼鏡、比如 OpenAI 前段時間花 65 億美金購買 John Ivy(蘋果前首席設計師)創立的公司 io,這個公司只有 55 人。他們正在做下一代的自然語言對話的這種設備。還有智能汽車上的語音對話設備。
這些交互界面未必是對話框,但它只要能夠滿足使用自然語言去對話,就是 AI 交互入口發生的地方。我們先來看一下整個交互范式的變革歷史:
![]()
從最早的 CUI(控制臺用戶界面)到 80 年代施樂 PARC 開啟、后來喬布斯和比爾.蓋茨引領的 GUI(圖形用戶界面),到 2007 年 iPhone 出來的 TUI(觸控用戶界面)。用戶交互界面的變革一直是計算產業里的革命性力量,每一次革命都會把計算的潛力釋放給更廣泛的人類和場景,AI 時代的“自然語言用戶界面”更是如此。
但是我也想說,自然語言交互這兩年也談得比較多,但它并不是一問一答對話這么簡單。就像張小龍說二維碼是移動交互入口,不是拿個攝像頭掃一下這么簡單,掃完之后呢?它的背后是要有一整套的移動生態系統去支撐它。張小龍早在 2012 年移動互聯網爆發前夜,就看透二維碼這樣一個交互入口,然后以此來布局整個微信生態,我覺得這才是微信可怕的地方。
這是我今天想重點講的,就是“自然語言交互界面作為入口之后”,如何牽引出對整個智能時代應用生態的重構?我覺得這是下一波 AI 發展的重大問題。
![]()
這方面有以下四點和大家分享:第一是應用的服務化,第二是 App 我認為不再孤立,第三是無需結構化 UI,第四是生成式 UI。
![]()
我稍微展開一下談談應用服務化。大家今天看到這個 GUI+TUI 為主的用戶界面,是面向我們人類設計的。但是它并不適合 Agent,包括從去年到今年,大家看到很多 Agent 的這種 Computer Use 都是模擬人類點擊,我覺得模擬人類點擊是一個偽 AI 交互。是一個中間過渡形態,就像移動互聯網期早期的 WAP 頁面,當時就是介于互聯網和移動互聯網之間的中間過渡形態。我認為大部分 GUI 應用,會演變成可以被 Agent 直接調用的 API 服務。
![]()
就像我們經常用的,比如說這種機票、酒店、外賣等軟件,未來它們未必是要用這種 GUI 的方式跟我們交互。因為用戶和 Agent 之間是第一交互入口。這些軟件只需要提供好它們的服務 API 給 Agent 調用就可以了。
接下來我想談一下,孤立 App 的問題。我們今天每個人的手機上都裝著幾十、上百個 App,我認為未來這些孤立 App 之間的壁壘會被打破,Agent 未來會通過智能推理無縫銜接各種服務。
![]()
在傳統孤立 App 模式下,假如我出差,我要訂機票、訂酒店、訂出租車、根據目的地要看地圖導航 App,還要看天氣 App、看導航。要經常在這四五個 App 之間來回切換,我想很多差旅人士都有這種痛苦。
但是我們人類的需求本來不是這樣子的,我們為什么要在幾個不同的 App 之間來回切換呢?我認為這是圖靈-馮諾依曼計算架構底下,給我們人類造成的這種鴻溝。人類的需求被拆解為不同的結構化 App 來分別滿足。但是現在有了 AI 之后,這種情況會得到改變。
在 AI 時代,我們的需求顆粒度將以自然語言描述的任務為單位,而不是被拆解為一個個應用為單位。
我們的需求通過幾句話的自然語言表達出來之后(如果 AI 知道了我的偏好后,甚至一句話就可以表達清楚我整個差旅需求),智能體可以將我的需求拆分成不同的服務 API 調用(訂機票、酒店、地圖、出租車等),而且在它們之間進行上下文信息共享(再也不用我們在不同的 App 之間將信息來回拷貝/粘貼),大大提升用戶體驗。
未來,我們將在用戶交互層面,看不到一個個孤立的 App,它們都以服務 API 的形式藏在背后,由 Agent 來按需調度。
接下來我們再來看結構化 UI 的問題。什么叫結構化 UI?就是大家傳統認知中的這種表單、按鈕、導航、菜單等等,這些都是上個時代 GUI 交互的“遺老遺少”。
![]()
為什么需要這些結構化 UI?它們是為了適配圖靈-馮諾依曼計算架構,而對確定性結構化信息的收集需求,人類為了使用計算機不得不遷就這種要求,或者必須被機器馴化成操作這些表單、按鈕、導航、菜單等等。
但是大家想一想,為了訂一個機票,在一個商旅軟件里面,我們要走好幾步。為什么不能在記住我的偏好前提下,一句話需求直接把機票給我買了?就像我們一句話交代給助理一樣。
未來的 Agent 應該很快具備這樣的能力,它可以把我們自然語言描述的需求,拆分成結構化的信息,送給商旅服務的 API。然后直接將訂票結果給我們。未來,鼠標點擊、觸控指令將不再是主流的交互。
最后談談生成式 UI。我們說未來自然語言交互是入口,并不意味著對話的結果呈現永遠是語言或者文本。很多場景,我們仍然需要圖形展示。
![]()
人類對圖形天然有很多偏好,但是此圖形非彼圖形,這個和傳統的 GUI 圖形用戶交互界面非常不一樣。未來生成式的用戶界面(GenUI),會替代傳統的結構化 GUI 圖形用戶界面。
我們今天在電腦/手機上看到的 GUI,它其實承擔了三個職責:1、圖形化呈現結果;2、響應鼠標點擊/觸控的人機交互;3、收集結構化的數據。
這三個職責中后兩個職責未來在 GenUI 中會消失。GenUI將主要用于圖形化的方式呈現結果,而不再承擔鼠標點擊或者觸控交互的職責、也不承擔收集結構化數據的職責。后兩者都會交給 AI 來完成,因為 AI 在這兩方面的體驗更便捷、更符合人性。
比如說未來我們通過 Agent 要外賣點一個漢堡,GenUI 根據我的偏好、地理位置,應該直接在屏幕上生成一個我想要的漢堡,直接懟在我臉前,如果我確認人臉掃描直接完成支付就行了。不需要再經過漫長的各種信息流、菜單、按鈕、表單這些繁瑣的流程。GenUI 現在也是人工智能領域比較活躍的創新方向。
當然這只是我在做的一些研究,包括有些是和客戶合作的一些方向。未必全對,也未必全面,因為今天來看整個 AI 驅動的人機交互的生態建設還很不完善,但是我覺得方向是很明確的,就是未來五到十年,整個人機交互會被 AI 極大地顛覆。當然,完善這樣的 AI 交互體驗閉環,需要大量的生態建設,我覺得這也是很多創新的機會。
新一代的交互體驗呼喚新一代的交互設備。
前段時間。對話中談到智能時代的超級設備是啥?手機的下一站如果不是手機,會是一個什么樣的設備?
![]()
KK 的觀點是手機之后的超級設備是智能眼鏡,他有一個提法叫鏡像世界。但是 KK 加了個限定語,25 年之后。這個限定語加的非常聰明,因為 25 年之后人類的預測太難說清楚了。
但是我當時在跟他對話時提了一個不同的觀點,我認為手機之后未必會仍然有一個中心化的超級設備,而是很有可能進入一個“多元設備”的時代。
如果我們看手機之前,人類周圍并沒有一個中心化的超級設備。我們那時有 Walkman、Mp3、收音機、游戲機、電視機等等。實際上就是個多元設備時代。移動互聯網起來之后,手機變成一個單一超級設備,統治了我們整個信息中樞。
AI 時代,我覺得可能有一個鐘擺效應,人類可能會再次進入一個多元設備時代。不同的場景,有不同的設備。比如眼鏡、手表、智能汽車,智能穿戴、等等,當然手機也還會是其中之一。但未必像今天一樣成為中心化的超級設備。
這里很大的原因是,我們今天的能耗限制和物理載重限制,包括智能眼鏡這樣的設備,很難通吃所有場景。但它們在自己的子場景里體驗卻是最優的。當然,有了 AI 的加持,這些設備之間打通之后會有更好的體驗。我們稍后會再談到這一點。
最后第四部分,我們來談談智能體的整個生態。
![]()
我們前面有談,對話助手只是一個交互入口,入口之后它一定有一個生態,需要一個平臺來承載。我剛才從交互的角度談了未來 AI 應用的形態,另外一個我覺得更大的是智能體平臺。目前大家看到主流的模型助手、包括最近的 GPT-5 的發布,都在從這種對話助手向智能體平臺演進。
![]()
智能體其實業界有很多種不同的定義。我比較認可下面這樣一種定義,或者它的能力矩陣:規劃、工具、協作、記憶、行動。
![]()
為什么智能體從去年下半年開始突飛猛進,很大程度上是因為強化學習帶來的推理能力提升。從而給智能體帶來了關鍵的“規劃”能力。
再來談工具能力。我們知道大模型本身并不執行圖靈-馮諾依曼架構下的軟件程序,但大模型想做事情,也不可能丟掉這些傳統軟件程序,這就是 Tools 工具能力。
我們知道早期 Function Call 等就是支持這個的,但是各家模型不夠標準化。Anthropic 于去年底推出 MCP 協議,把這個標準化之后,大大提升了智能體和工具之間的交互能力,這個快速得到業界的廣泛支持。今年 5 月份 Build 大會,微軟 CTO 有一個說法,他說“MCP 是智能時代的 HTTP 協議”,我覺得這個比喻是比較恰當的。
還有就是 A2A 協議,Agent2Agent,這是 Google 在今年 4 月份推出的,智能體與智能體之間的協作協議。未來不可能是單一智能體幫我們干活。我們需要多智能的協作。今天主流的智能體協作大概是個位數到十幾二十個。但未來智能體協作的數量很快會超越百、千,甚至會出現數萬個智能體協作。
記憶也是智能體關鍵的一環,很多時候我們說智能體比較差強人意,其實是因為記憶能力缺失導致的。今年大模型一個突飛猛進的能力,就是記憶能力。
前面這四大能力集合在一起,就使得智能體具有了行動能力。去年9月份全球產品經理大會上,我曾經提出一個觀點,未來智能體會把我們今天的互聯網從“信息網絡”重構為“行動網絡”。
當時提出這個觀點,坦白來說還是研究性的,當時我記得也有一些同行會有疑問:“真的會這樣嗎?”但是大家今年從 3 月份 Manus 出來之后,包括后來 OpenAI、Anthropic 和 Google 紛紛推出自家的智能體,大家都看到了互聯網在飛速地從信息網絡到行動網絡進化。我們未來會看到很多網站主要的訪問者不再是人類用戶,而是智能體。這將是一個非常大的變化。
下面簡單說一下 MCP 和 A2A 一些構成的智能體平臺。
![]()
藍色的部分,是智能體通過 MCP 協議調用我們傳統的軟件和服務(也就是圖靈-馮諾依曼架構下的傳統確定性計算)。這些傳統軟件在智能體時代并不會消失,但我有一個觀點,就是它會下游化。因為 Agent 做了人機交互的第一道防線,人類用戶和智能體直接交互,智能體再去下游調用那些 API / Web 服務/數據庫等。我們也可以說是 MCP,是神經網絡計算和圖靈-馮諾依曼計算之間的橋梁。
除了傳統軟件,Agent 和 Agent 之間也需要協作交互,這就是綠色的部分,它們通過 A2A 協議構成一個智能體協作網絡。下面是對 MCP 和 A2A 的一個對比:
![]()
MCP 執行的是 Agent 來調用傳統軟件 API 或服務,是機器間的協作,傳遞的數據格式是結構化的數據。而 A2A 執行的是多個 Agent 之間的交互,它們是擬人化的協作,傳遞的數據主要是自然語言或者視覺數據。它們的應用場景側重點也不同。
下面我想談談,智能體的執行時長,這是一個很關鍵的要素。
![]()
上個時代,我稱為“檢索計算”的時代。我們絕大部分產品經理和架構師、程序員,都習慣了秒級服務或者毫秒級、微秒級響應。這對于以信息檢索為主的系統,不成問題。包括對話模型,我們基本也能做到這一點。
但是我們發現推理模型上來之后,大家會發現完成稍微復雜的智能體任務,時長就無法維持在秒級。目前很多智能體的執行時間都到幾分鐘甚至數十分鐘。業績也普遍預計很快一些智能體執行時長將到數小時。
藍色的部分是我的預測,下半年到未來三年左右,將有智能體執行的時長要到達數天(可能是一些項目類任務)、數月(工程類任務),甚至數年(科研類任務)。Sam Altman 最近也在一個訪談里透露 GPT 內部設計的一些智能體需要執行長達千小時。
這個變化的主要原因一方面是復雜的推理必然要求更多的計算時長,另一方面從任務結構來講,人類未來只負責定義需求,過程監督,和結果決策。中間執行過程會交給智能體。這會帶來智能體和用戶交互上一個巨大的變化。
![]()
目前我們比較習慣用“請求/響應的模式”,用戶主動發出請求,單一智能體被動響應。但未來的變化將是“伴隨交互的模式”,智能體異步執行,它可以根據狀態主動和用戶溝通、或者詢問用戶,或者主動報告進展。而且是多個智能體一起協作的模式。這對長時間允許的智能體來說,是非常重要的變化。
如果我們綜合前面談的設備、人機交互,智能體生態,我覺得未來可能會是下面這樣一副圖景。
![]()
人類用戶用自然語言通過各種多元設備去呼叫背后的智能體。可能不同的設備,背后鏈接的是同一個中心化的智能體(可能在云上),它對我們的偏好,我們的 ID、我們的歷史比較熟悉。然后它再根據任務類型分發,要么去調用傳統軟件/API/服務,或者分發給其他的智能體網絡來完成任務。然后可能經過秒級、分鐘級、小時級或者月級或者年級來異步的方式響應用戶。
我的演講分享就到這里。下面借著這個機會,向大家發布一個新聞,很多朋友可能知道,這幾年我主要帶著一支技術研究隊伍做一些人工智能產業范式的研究。最近,我發起成立了“奇點智能研究院 Singularity Intelligence Research Institute”,奇點智能研究院由 CSDN、Boolan 聯合多家機構成立,是專注于人工智能前沿技術和產業落地的創新研究、咨詢與智庫機構。官網:https://singintelligence.com。奇點智能研究院的愿景和使命是成為人工智能產業的“范式孵化器”,推動 AI 成為普惠性的生產力工具。
![]()
在 AGI Singularity 到來之前,希望我和奇點智能研究院能夠為人類做一些微薄的事情。謝謝大家!
【活動分享】2025 全球機器學習技術大會(ML-Summit)北京站將于 2025 年 10 月 16-17 日在北京威斯汀酒店舉辦。大會共 12 大主題、50+ 海內外專家,聚焦大模型技術和應用變革。詳情參考官網:https://ml-summit.org (或點擊原文鏈接)。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.