剛剛過去的2025年,對于人工智能(AI)乃至受其影響的社會方方面面而言,都是不平凡的一年。在這一年里,DeepSeek(深度求索)橫空出世撼動了AI競爭全球格局,中國成為全球AI領域重要領跑者;以人形機器人等為代表的具身智能應用批量落地,機器人商業化應用打開了新的想象空間;伴隨AI大模型快速迭代,技術狂飆的欣喜與投資泡沫的焦慮相伴而至;深度學習的發展以及隨之而來的“超級智能”也引發了更多討論……
當越來越多的新成果、新問題、新機遇、新挑戰同時涌現,人們對于AI的思考也走入了深水區。
AI驅動前景如何
時至今日,不少行業企業談起AI時依舊感到“頭大”。一方面,所有企業都知道,AI將徹底重塑企業流程,積極擁抱AI是不二選擇。另一方面,想要擁抱AI也不是一件容易的事,尤其是對于傳統企業而言。于是我們看到,一些企業大刀闊斧地引入AI,但投資回報不及預期;另外一些企業雖然在個別部門、個別項目中引入AI,但卻無法在全公司內推廣。總體來看,如何將AI的技術潛力轉化為商業價值依舊是個待解難題,世人觀之有如霧里看花。
麥肯錫最新發布的2025年AI現狀調查報告也證明了這一點:約三分之二的受訪企業表示“尚未實現AI的規模化應用”,五分之三的受訪企業認為“AI應用尚未對利潤產生顯著影響”。這表明,目前大多數企業還處于實現AI價值的早期階段。
正是在這樣的背景下,“AI原生”成為2025年業界討論的高頻詞。所謂“AI原生”是指以AI作為企業的核心驅動力,重構企業的業務流程、商業模式以及產品樣態等。不同于之前流行的“在現有系統上附加AI功能”的升級思路,“AI原生”追求的是“完全立足于AI”的顛覆式創新,力爭“以AI為基因”重塑企業的“肉身”與“靈魂”。
最近在全球范圍內興起的AI原生手機、AI原生銀行均是這一理念的體現。在這些產品或組織架構中,AI不再扮演助手角色,而具備更強的自主性。
比如,AI強大的自編程能力能自主幫助開發者完成代碼生成、錯誤修復等任務,從而極大提高軟件開發效率。這被認為是當前大模型最具顛覆性的應用領域之一,也催生了一批獨角獸企業。
就此,多位專家表示,AI原生意味著整個產業正在從實驗探索階段邁向實際應用階段,“這是AI成熟度的重要標尺”。
具身智能會否迎拐點
2025年,具身智能成為繼生成式AI后的又一大熱門,各國科技企業圍繞具身智能的競爭日趨白熱化。
機器狗、人形機器人、自動化的無人工廠……曾經的科幻場景如今正在走向現實。與傳統AI“在計算機中思考”的存在方式不同,具身智能旨在將AI集成到機器人等物理實體上,賦予實體感知、學習、與周圍環境互動等能力。人形機器人是目前具身智能最具代表性的形態之一,眾多初創公司及風險投資均集中在這一領域。不少機構預測,2026年將迎來具身智能大爆發,“智能體”將迎來商業化的重要拐點。
摩根士丹利的分析師在最新發布的研究報告中稱,預計到2050年,全球人形機器人市場規模將達5萬億美元;機器人數量可能會超過10億,其中90%將用于工業和商業領域。不過,分析師們也提醒,“機器人的發展史表明,技術愿景與市場現實之間往往存在落差”,因此對于具身智能發展前景的判斷“仍需謹慎”。
另有專家表示,人形機器人的發展有“近憂”,也有“遠慮”。
“近憂”主要表現在具身智能對就業結構的沖擊上。目前,學界已經大體形成共識,AI確實會替代一部分就業崗位,但同時也會催生新崗位,因而從長遠來看,AI并不會導致大規模失業。但“機器替代”與“人力升級”的節奏并不相同,短期看,這種錯配不僅會導致就業市場震蕩,還可能沖擊社會收入分配結構。
“遠慮”主要表現在大規模商業化的瓶頸上。當前,人形機器人在技術路線、應用場景等方面仍處于起步階段,但大量資本“跑步入場”,已經積累了相當程度的泡沫風險,企業需要做好“長跑”的準備。
投資泡沫出現了嗎
2025年AI領域最具爭議性的話題當數“投資泡沫”。對于此,各方存在嚴重分歧。
樂觀者認為,AI市場潛力不可估量,當前投入巨資“相當于在為未來幾十年的發展提前建設基礎設施”。悲觀者則質疑,AI概念已經過熱,一旦泡沫破裂,會導致“非比尋常的經濟衰退”。
截至2025年第三季度,雙方的爭論尚未呈現出勝負之象;直至2025年年底,市場的擔憂情緒突然集中爆發。近期,美股AI概念股波動加劇,甲骨文和博通等企業的股價一度暴跌,隨即多家投資銀行和研究機構均發出“過熱警告”。他們的主要觀點是,不確定的投資回報不足以支撐高歌猛進的資本市場,市場估值已經明顯偏離了AI的真實價值。比如,世界經濟論壇總裁布倫德不久前就公開表示,2025年AI領域投資額高達5000億美元,但實際回報“至今尚未顯現”。
另有一些專家試圖從歷史長周期出發闡釋技術的紅利與風險。此派觀點認為,從長期來看,新技術必然帶來新機遇,但消化機遇需要周期,短期陣痛很難避免。縱觀歷史,電力、通信等通用技術均在行業發展早期展現出巨大潛力,也吸引了許多企業投身其中。資源的急速集聚,在短時間內改變了生產和就業結構,甚至還抑制了部分領域的生產效率,這與當前AI帶來的社會沖擊如出一轍。但隨著時間的推移,新技術帶來的經濟潛力會逐步釋放,最終覆蓋前期出現的絕大多數問題——這種走勢體現在圖表上就是經濟學家們常說的“生產率J曲線”。基于這一邏輯,多位業內專家指出,從技術演進的角度來看,發展初期的“適度泡沫”有利于產業加快成熟,因而不必過于緊張。
安全邊界怎么守住
2025年,先后有多位科技界知名專家預測“超越人類智能水平”的超級智能時代即將到來。與此同步發生的是,業界對于“智能邊界”問題的擔憂日甚。
研究表明,當前的AI大模型只在特定領域展現出卓越能力,但在處理更復雜任務時會失效,其根本原因在于AI存在“根本性缺陷”。這也是為什么圖靈獎得主楊立昆完全不認同“通過擴大現有技術規模來實現通用智能”的說法,因為當前的AI大語言模型缺少包括情感、道德等“重要的東西”。但隨著深度學習的發展,“未來正變得模糊不清”,雖然人類依舊可以在很大程度上引導其發展方向,但僅僅是“失控可能性”的存在就足以讓人感到不安。
2024年諾貝爾物理學獎得主、“深度學習之父”杰弗里·辛頓近日表示,AI的知識傳遞效率遠超人類,“比人類更聰明”的智能系統隨時可能誕生,人類必須立即行動以應對可能出現的風險。2025年10月,包括辛頓在內的超過800名科技專家及公眾人物聯名簽署了一份倡議,呼吁在科學界達成“安全可控開發超級智能的廣泛共識”前,暫停開發超級智能。非營利機構生命未來研究所也持類似觀點。其在不久前發布的《AI安全指數2025》報告中指出,目前主要人工智能公司的安全治理水平遠未達到“值得信賴的全球標準”,這些企業只是在技術層面你追我趕,但沒有一家企業制定出“足夠完善的策略和方案”。
可以預見的是,2026年,圍繞AI的爭論將更為激烈。不過,看好或看衰AI不該是爭論的重點,在喧囂的技術浪潮中辨清前行的方向才是真正值得關心的話題。(作者:孫亞軍 來源:經濟日報)
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.