離開Meta這座圍城后,Yann LeCun似乎悟了“不要把雞蛋裝在同一個籃子里”。
一邊,他親手打造了自己的初創公司AMI,試圖在世界模型這條賽道上大展拳腳;同時,他的目光又投向了硅谷的另一角。
就在最近,LeCun正式宣布加入一家名為Logical Intelligence的初創公司,擔任技術研究委員會的創始主席。
挺有意思的。因為Logical Intelligence選擇了一條與當前主流大模型(LLM)截然不同的技術路線。
該公司主推的是一種能量-推理模型,“更擅長學習、推理和自我糾正”。
在數獨游戲測試上,Logical Intelligence推出的模型Kona不到1s就正確完成了數字填寫,
而GPT 5.2、Claude Opus 4.5、Claude Sonnet 4.5都跑了100s了,還沒個結果……
![]()
After 10 minutes……
![]()
Logical intelligence是做啥的公司?
首先,咱先來搞搞清楚Logical Intelligence到底是做什么的。
簡單來說,這家今年1月剛對外亮相的AI公司正在研發一種基于能量的推理模型(Energy-Based Reasoning Model, EBM)。
聽起來可能有點抽象……我們拆解開來細說一下。
這種模型通過根據約束條件進行評分,來驗證和優化解決方案。
你可以把它想象成一個在復雜迷宮中尋找出口的智能體,它不是靠大模型那樣預測下一個token,而是通過感知周圍環境的“能量高低”來判斷方向。
在EBM的世界里,符合邏輯、滿足約束條件的解,其“能量”最低,也就是最一致、最穩定的狀態。
系統會一直不斷優化,直到找到那個能量最低的結果。
也就是說,EBM體系從一開始就假定問題本身由嚴格約束構成,推理過程服務于滿足約束這一目標。
Logical Intelligence發布了三大核心技術論點。
第一,大模型作為推理模型的根本性受限。
它依賴離散token,給AI推理的擴展帶來了嚴重障礙。
第二,能量-推理模型(EBMs)克服了使用基于大模型推理模型固有的主要難題。
第三,擴展AI推理需要使用EBM進行推理,用大模型進行協調——尤其是在與自然語言教學之間的翻譯時。
![]()
如果你長期關注LeCun的學術動態,就會發現這玩意兒其實完美契合了他長久以來的技術信仰。
早在20年前,LeCun就多次討論過能量模型在智能系統中的潛力。
只是受限于算力與訓練方法,這一路線長期停留在理論與小規模實驗階段。
近幾年,LeCun在采訪中反復提到大模型的成功在某種程度上讓整個領域形成路徑依賴。就在最近的一次采訪中,他還對著媒體說,每個人都已經“被LLMs洗腦了”。
所以,LeCun加入這家公司是一個非常順理成章,兩方一拍即合的事情。
Logical Intelligence的創始人兼CEO Eve Bodnia表示:
- 對我們來說,Yan LeCun是能量-推理模型和相關各種架構的唯一專家。
當我們開始著手這個EBM時,他是我能與之交談的唯一人選。
![]()
Eve Bodnia還說,AI有不同的形式,不必非得是基于文本的AI。
“人們總說我們處于AI泡沫之中,但我們不在這個范圍內。因為大家只是處在大模型泡沫中。”
他還說,通往AGI的道路需要不同的AI來各司其職:
- LLMs用自然語言與人類交互
- EBMs承擔推理任務
- 世界模型幫助機器人在3D空間中采取行動
已推出首款模型
Logical Intelligence聲稱自己是首個成功構建出工作型EBM的公司。
他們已經推出了一款叫Kona的能量-推理模型,參數量低于200M。
![]()
那么,這款模型的表現如何?
Logical Intelligence甩出了一個具體的應用場景,數獨。
在單個Nvidia H100 GPU上運行,Kona解決數獨問題的速度,比Claude Opus 4.5、GPT 5.2、Gemini 3 Pro等全球頂尖的大模型都要快得多。
準確率也遙遙領先。
這是Kona玩兒數獨的速度和成績:
![]()
第二快的是DeepSeek-V3.2,不過出了一些小小的錯誤:
![]()
其它Gemini 3 Pro、Claude Opus 4.5玩兒數獨的速度,都100s開外去了……最后結果還是錯的(捂臉)。
BTW,在此測試中,大模型們被禁止使用能“暴力解題“的編程能力。
之所以選數獨來測試,是因為數獨是一個典型的強約束、零容錯的邏輯問題。
填錯一個數字,整個盤面就廢了。
這個對比就是為了突出在強約束、解空間有限的問題上,能量模型的搜索效率。
所以Kona的目標戰場不僅僅是填數字游戲。
Logical Intelligence的目標是讓Kona去解決現實世界中最為棘手的問題,比如優化復雜的能源網絡分配,或者實現精密制造過程的自動化。
Eve Bodnia強調的,這些任務“壓根都跟語言沒關系”,而且對幻覺的容忍度非常低。
根據最新公開資料,EBM在訓練數據方面還有獨特的優勢。
EBM的訓練數據可以是任何東西。
“我們不是試圖為所有事物創建一個適用于所有情況的通用大腦。我們為每個獨立的業務創建一個較小的模型。每個客戶的數據都會有所不同。”
這就使得訓練與傳統大模型有很大不同。團隊用來訓練Kona的是部分數據,稱為稀疏數據,而Kona能夠從稀疏數據中提取完整數據。
One More Thing
目前,Kona還是一個閉源模型。
不過CEO說了,最終會考慮將某些內容開源。
- 希望在將其公之于世之前,能夠充分理解它。
這是邁向AGI的一大步。
你需要思考它的安全性如何,可能性有哪些,以及界限在哪里。我只是想做一個負責任的父母。
參考鏈接:
https://archive.ph/H91Zl#selection-2531.22-2531.53
如果你也想測下數獨速度:
https://sudoku.logicalintelligence.com/
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.