![]()
機器之心報道
多數大模型能生成 “看起來像” 研究的文本,但極少數能真正做研究 —— 提出假設、收集證據、執行可復現的推導、迭代驗證直至結論成立。
此前發布了 BabyVision 評測基準(已被多個近期發布的重磅模型納入評測體系)的UniPat AI在最新的 Blog《UniScientist: Advancing Universal Scientific Research Intelligence》中給出了一個清晰而系統的答案。
UniPat AI 開源的 UniScientist 訓練了一個 30B 參數的模型來閉合這一環路。在 FrontierScience-Research 和 ResearchRubrics 等科學研究榜單上,它匹敵甚至超越了參數量大一個數量級的頂尖閉源模型。
![]()
- 開源地址:https://github.com/UniPat-AI/UniScientist
- Blog: https://unipat.ai/blog/UniScientist
01|“會寫報告” 不等于 “會做研究”:實現流程閉環才是能力
今天很多模型做 “研究任務”,只是看起來像在做科研:引用一堆資料、寫一堆邏輯、格式也像論文。
但問題是:它們經常停在 “敘事推理”、從 “結論” 出發的邏輯陷阱中—— 說得很像、驗證很少、推導不穩、可復現性弱。
UniPat AI 在 UniScientist 中直接回應了這一缺口:
僅有 30B 參數的 UniScientist 具備了 “自主科學研究” 的能力—— 在開放問題里不斷提出、證偽、修正,直到證據狀態穩定,再把全過程沉淀成結構化成果。
這背后的潛臺詞很直白:
真正的科研,不只是把報告寫漂亮;更是把 “假設 - 證據 - 驗證” 的循環跑通。
02|數據瓶頸:人寫得太慢,純合成不夠 “真”
UniScientist 首先把矛頭指向了數據:如何構建高質量科研訓練數據一直是硬瓶頸。現有方案幾乎只有兩種極端:
- 純人工:生態真實、判斷精準,但昂貴、慢、還受限于單一專家的學科邊界;
- 純合成:規模巨大、成本低,但常缺少可判別的精度和學科落地的真實性。
UniScientist 的關鍵洞察源于一個被廣泛忽視的不對稱性。
- 大語言模型更擅長生成:能跨學科大規模地提出候選研究問題和解法草案。
- 人類專家更擅長驗證:鑒別研究的真偽和質量,其成本和難度遠低于從零創造,且能提供高精度的學科把關。
這種不對稱性指向了一種更高效的分工方式:模型負責規模與多樣性,人類專家負責質量與可驗證性。 這正是 UniScientist 數據引擎的核心原則 —— 產出的訓練實例既有廣泛的專業覆蓋面,又有嚴格的驗證保障。
![]()
03|形式化科學研究:證據狀態與溯因假設的動態系統
許多關于 “科研智能” 的討論聚焦在更好的工具調用或更精準的檢索上。UniScientist 則在更本質的層面展開工作。團隊將開放式科研過程建模為一個基于兩個基本操作的動態系統:主動證據整合(Active Evidence Integration) 與 模型溯因(Model Abduction)
系統的核心是一個不斷演化的 “證據狀態”,其中證據被分為兩類。
- Evidence-Grounded(可獨立核驗的證據):來自外部權威來源,或內部產出但經過明確檢查驗證;
- Formally-Derivable(可形式化推導 / 復現的證據):通過符號推導、數值計算、仿真實驗等可復現程序得到。
然后系統循環執行三個動作:
1. 產生假說
2. 獲取外部權威信息證據、計算和推導證據
3. 做溯因更新:讓假說更好解釋當前證據狀態
直到證據足夠完整穩定,再把整個研究過程轉化成一份嚴謹的科學成果。
這一形式化具有重要意義:它把 “科研智能” 從一個遠大理想,變成了可訓練、可評估、可迭代的對象。
04|把開放的科學研究問題變成 “可驗證的單元測試”
UniScientist 提出了Evolving Polymathic Synthesis(進化式多學科合成),一個承擔兩項功能的數據引擎。
1. 從經過專家驗證的科學 Claim 出發,將其擴展為研究級問題 —— 跨越多個相互依賴的子問題,要求實驗設計與推導協同
2. 同步合成評測 Rubrics。這些 Rubrics 不評估文風或格式等表面質量,而是評估具體的科學發現是否已被達成
這一設計中最具辨識度的特征是:
一份開放式科研成果被分解為 N 個封閉的、可獨立驗證的 Rubric 檢查項。
每個 Rubric item 都盡量做到:原子化、客觀、可證據落地或可形式化推導,并額外強調:
- 一致性(對相同科研成果,重復評測應穩定)
- 區分度(能拉開不同完整度的差異)
- 原子性(單條 rubric 只校驗一個知識點)
當前數據集仍在持續擴展中,已包含超過4,700個研究級實例,每個實例附有20+條 Rubric 項,覆蓋50+學科和400+研究方向。專家標注平均每條樣本投入 1-2 小時。學科覆蓋從量子物理和有機化學到社會文化人類學和計算語言學均有涉及。
![]()
數據集中包含了具備真實科研質感的研究問題。下圖展示的是一道生態學方向的示例,完整案例庫可在 https://unipat.ai/blog/UniScientist 查閱。
這些問題的共同特征在于:沒有任何一道可以通過匹配記憶中的既有答案來直接解決。每一道都要求完整的科研鏈條 —— 文獻調研、假設形成、實驗或推導設計、分析驗證、以及最終成果的收斂。
![]()
05|從單點生成到群體智慧
UniScientist 引入了一個額外的訓練目標,成果聚合目標
給定同一問題的 N 份候選科研成果,模型學會融合各家優點,產出一份更完整、更穩健的最終成果。通過 Rubric 閾值的 rejection sampling 來篩選高質量參考答案,聚合能力與科研生成能力一同被訓入模型。
這反映了科學研究中的一個現實:對于一個問題,一次嘗試并不一定會帶來最好的成果。這實際上是將 “集體科研智能” 寫進了訓練過程:
模型不僅學會了產出研究,還學會了比較、取舍、整合與自我進化。
06|30B 小模型比肩最大規模閉源系統
評測結果引人注目,尤其考慮到模型的規模。
UniScientist-30B-A3B—— 一個僅有 3B 激活參數的小模型 —— 在FrontierScience-Research上達到28.3分,超越 Claude Opus 4.5(17.5)、Gemini 3 Pro(12.4)和 GPT-5.2 xhigh completion mode(25.2)以及工具調用模式下的 DeepSeek V3.2(26.7)和 Seed 2.0 Pro(26.7)。在成果聚合模式下,得分達到33.3
FrontierScience-Olympiad上,啟用工具的 UniScientist 得分71.0,匹配 Claude Opus 4.5,超越多個其他前沿模型。在多項分布外的基準 ——DeepResearch Bench、DeepResearch Bench II 和 ResearchRubrics上 —— 模型的表現與一系列頂級閉源系統相當。
一個尤為重要的發現:即使在無工具的評測條件下,性能仍有顯著提升
這表明增益并非單純來自更頻繁的工具使用,模型自身的研究推理能力確實通過訓練得到了增強。
所有基準上的結果指向同一結論:模型學會的不只是更好地檢索,而是將檢索、推導、驗證和寫作整合為連貫的研究工作流。
![]()
07|下一步:邁向現實世界實驗
科學研究不止于形成一個合理的敘事。許多結論依賴于可執行、可復現的計算與仿真。
UniScientist 集成了代碼解釋器,將研究流程從敘事式推理升級為 “測試 - 修正” 的循環:假設不僅被提出,還被實例化為計算實驗 —— 其結果可以確認、推翻或細化假設。
系統目前的能力主要集中在可復現推理與仿真計算范圍內。對真實世界研究資源的編排 —— 可靠地調度大規模 GPU 任務、協調濕實驗流程 —— 尚未實現。
UniScientist 在 Blog 中也將下一步方向闡述得很清晰:
將框架擴展到對真實實驗與計算基礎設施的受控編排與執行,目標是進一步加速科學發現、推動研究前沿。
以下展示一個 UniScientist 進行的完整科研推理鏈條,詳細推理內容可以在 Blog 鏈接中查閱:https://unipat.ai/blog/UniScientist
![]()
關于 UniPat AI
UniPat AI 此前發布過多模態評測基準 BabyVision,該基準已被部分近期模型納入評測體系,并在一些技術報告中被引用。這次發布的 UniScientist,則把關注點轉向解決科研任務,提出將全鏈條科研能力內化到模型的方案,讓模型具備了自主推進科學研究的能力。
- 官網鏈接:https://unipat.ai
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.