<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      從“暴力燒Token”到“系統工程”:OpenAI與華為的兩條 AI 編程路徑

      0
      分享至


      作者 | 王亞偉 華為云碼道(CodeArts)首席架構師

      1 AI 編程工具的兩種演進路徑:算力暴力與工程確定性

      2026 年,AI 編程工具的市場演進分化為兩條截然不同的路徑:

      • 模型中心派:其核心邏輯是“模型即一切”。通過推高上下文窗口(Context Window),試圖將超大規模的完整工程載入 Prompt,Gemini 1.5/2.0 Pro 支持高達 2M Token,這種超長上下文允許開發者將整個代碼倉庫作為 Prompt 的一部分進行分析和問答。該路徑的上限取決于模型的推理能力,但面臨極高的 Token 成本:即便模型能讀,每次對話重新讀入幾十萬行代碼的費用極高。以 Claude 為例,超過 20 萬 Token 的請求通常會觸發溢價計費;推理延遲:處理 100 萬 Token 的推理時間往往以分鐘計,無法滿足實時性交互的需求;精準度衰減(Recall Problem):學術界稱之為“大海撈針(Needle In A Haystack)”問題。當上下文過長時,模型對中間部分信息的召回率和邏輯嚴謹性會下降,極易產生“幻覺”。

      • 工具驅動派:模型驅動派側重于擴張“腦容量”(超長上下文窗口),而 Cursor 則通過重構 IDE 的交互與索引工具,開啟了“工具驅動派”的先河。其核心邏輯并非被動等待模型進化,而是通過增強 IDE 的感知與修改能力,讓現有模型也能精準處理復雜的代碼邏輯。Cursor 在本地構建了一套獨立于傳統語言服務(LSP)之外的高性能代碼索引系統(Codebase Indexing),在后臺自動對全量工程進行向量化(Embedding)并構建符號圖譜。當需求輸入時,系統會優先調用自研檢索工具,從海量文件中提取關聯度最高的代碼片段,將其精準拼湊為 Prompt 交付給模型。

      從底層工程實現和企業級落地路徑來看,碼道 與 Cursor 雖然同屬“工具驅動派”,但其技術路徑存在代際差異:Cursor 是 IDE 表現層 AI 融合的典范,而 碼道 則是 IDE 內核層語義重構的專家

      • Cursor(基于表現層的上下文注入):通過 Embedding 索引結合 VS Code 原有的 LSP(語言服務協議)提供上下文。這種模式本質上仍是概率性的“文本尋蹤”,且隨著工程規模擴大,索引膨脹會導致檢索延遲增加,在大規模工程中難以保障跨模塊引用的絕對準確。

      • 碼道(基于內核層的語義驅動):通過徹底重構 IDE 底層多語言語義內核(Unified Polyglot Semantic Core),由 CMM(索引物理存儲優化) 與 CAL(統一語義模型) 支撐。這種基于內核提供的全量語義信息,不僅能確保檢索的物理準確性,更通過指令化執行實現了確定性的任務交付。

      2 華為云碼道(CodeArts)的協作范式:LLM 負責“邏輯規劃”,多語言語義內核負責“確定性執行”

      在企業級軟件開發中,代碼的復雜性是 Token 消耗的主要來源。碼道 的核心策略是將任務解耦:由 LLM 承擔“邏輯規劃”,由多語言語義內核負責“確定性執行”。這種“大腦 + 手腳”的協作范式,通過以下三個工程維度實現了極致的性價比:

      1. 成本置換:將推理成本下放為計算成本

      在大規模工程中,若由 LLM 遍歷源碼尋找接口引用,需消耗數萬 Token 進行文本理解;而通過 碼道 的底層索引,僅需一次毫秒級的 API 調用即可返回精確結果。該架構將高昂的大模型推理成本(Inference Cost)轉化為低功耗的本地計算成本(Computing Cost),從根源上消解了 Token 通脹。

      • 語義級 RAG 技術(Code Model RAG):依托多語言語義內核的索引系統實現結構化檢索。其召回的上下文僅包含必要的語義摘要(如符號定義、調用鏈),避免了無關源碼片段的冗余讀入,顯著降低輸入 Token 消耗。

      2. 邏輯外掛:從“文本生成”到“指令化執行”

      多語言語義內核掌握著項目的全量語義數據,能為 LLM 提供結構化的代碼理解并屏蔽語言差異:

      • 指令重構技術(Instruction Refactoring):LLM 僅需輸出高階指令(如 execute_refactor),具體的跨文件改動由底層的重構引擎自動完成。這種“外掛式”執行省去了 LLM 生成數十個文件改動內容的輸出過程,極大地壓縮了輸出 Token 的規模。

      3. 閉環保障:通過自主校驗提升一次性成功率

      企業級開發的隱性成本在于高頻的調試循環與人工審核。碼道 引入了代碼自主校驗技術:

      • 自主校驗技術(Code Model Shadow):通過“解析、編譯、執行”三層反饋機制,多語言語義內核可自動感知 LLM 生成的代碼缺陷,系統在后臺直接引導 LLM 修正。這種對用戶透明的自愈過程,顯著提升了一次性成功率。在復雜的企業場景下,減少修復循環意味著更低的算力損耗與更短的開發者審核周轉期。

      通過規劃與執行的分離,華為云碼道以更低 Token 消耗確保了 Agent 交付件具備更好的“語法自洽”與“邏輯可運行”。這不僅優化了算力資源,更通過工具的確定性穩住了大型工程的交付質量。

      3 支撐華為云碼道(CodeArts)多語言語義內核的兩大底層基石:索引物理存儲優化(CMM)與統一語義模型(CAL)

      索引物理存儲優化 CMM(Compacted Memory Management)

      多語言語義內核的高效運行,由底層的代碼索引存儲機制 CMM 支撐。在企業級 AI 編程場景下,平衡性能與 Token 成本的核心,在于超大規模代碼 AST(抽象語法樹)與索引的低開銷處理。

      CMM 通過重構索引在內存中的表示方式,消除了原生對象存儲帶來的元數據負載(Overhead)。其技術邏輯在于利用數據布局(Data Layout)優化換取訪問速度與存儲密度。工程實踐表明,在處理大規模工程的索引效率時,底層數據表示的優化比單純的算法改進具備更高的工程收益。

      1. 核心技術邏輯:重構數據布局

      • 消除對象布局冗余:在 JVM 等原生布局下,對象的元數據開銷極高(如 8 字節內容在堆中常占用 24 字節)。CMM 放棄了原生對象表示,通過扁平化存儲與屬性分組消除了元數據負載,顯著提升了內存利用率并減輕了 GC 壓力。


      對象原生布局


      扁平化屬性分組布局

      • CPU 緩存友好型設計:針對現代 CPU 性能遠超內存訪問速度的現狀,CMM 采用連續內存塊(Contiguous Chunks)存儲。通過將高頻協同訪問的屬性聚合在一起,最大化利用 CPU L1/L2 緩存機制,解決了大規模數據下的內存訪問瓶頸。

      2. 技術實現:自適應壓縮與按需解碼

      • 自適應壓縮方案:系統根據數據分布自動選擇 Delta 編碼、RLE 編碼或變長編碼等最優方案,支持在海量數據批處理中實現高效的隨機訪問解碼。



      • 代理對象與按需解碼(Lazy Decoding):不同于全量反序列化的傳統模式,CMM 通過代碼生成技術提供代理對象。系統僅在調用具體接口方法時才對局部屬性進行解碼。這種模式避免了在處理復雜工程時產生無效的算力消耗。

      3. 工程價值:支撐高頻工具調用的性能底座

      • 性能提升:在代碼模型與 AST 的訪問基準測試中,CMM 相比傳統 IDE 方案實現了 50-100 倍的性能飛躍。

      • 全量索引常駐內存:得益于高壓縮比特性,全量索引可常駐內存,消除了大規模工程下頻繁觸發磁盤 I/O 的冷啟動開銷。這確保了多語言語義內核在響應 LLM 的檢索請求時,能夠實現毫秒級的全量數據遍歷與即時反饋。

      統一語義模型 CAL(Code Access Layer)

      如果說 CMM 優化了索引數據的物理存儲,那么 CAL 則負責邏輯層面的語義對齊。在企業級大規模工程中,異構編程語言的 AST 結構差異顯著,LLM 難以直接處理原始的非結構化數據。CAL 通過一套統一多語言語義模型屏蔽了底層語言的實現細節,將離散的源代碼映射為標準化的結構化語義 API。

      1. 核心技術邏輯:標準化語義表示

      • 統一類型系統 (Unified Type System):CAL 構建了一套抽象的類型圖譜,實現跨語言的類、方法、變量及調用關系識別。該系統將不同語法的底層實現轉化為 LLM 可解析的標準化語義符號。

      • AST 與語義符號的實時綁定:基于 CMM 的高性能索引,CAL 能夠實時構建代碼 AST 并進行精確的符號綁定(Symbol Binding)。這為 LLM 提供的不再是模糊的代碼文本,而是具備明確調用邊界的邏輯單元。

      • 代理模型與按需解析:CAL 采用與 CMM 協同的“延遲解析”策略。系統僅在 Agent 需要深度理解特定模塊時,才觸發局部的語義補全與推導,避免無效的計算開銷。

      2. 工程價值:消解語義幻覺與 Token 通脹

      • 消除語義幻覺:CAL 充當 LLM 的物理校驗層。當 LLM 嘗試修改接口時,CAL 通過靜態分析提供該接口的顯式約束條件,確保生成的代碼在語義層面實現“合法性”,規避了因不熟悉私有庫規則導致的邏輯錯誤。

      • 跨語言導航能力:依托全量索引,CAL 支持在大規模代碼庫中實現毫秒級的跳轉與引用查找。這為 Agent 進行全局任務規劃提供了準確的上下文圖譜。

      • 精準的上下文壓縮:得益于高密度的語義索引,系統向 LLM 提供的不再是冗余的源碼片段,而是精煉的語義摘要。在復雜邏輯檢索任務中,這種方式能顯著削減 Token 消耗。

      4 語義級 RAG 實測:代碼遮蔽與邏輯召回的量化表現

      依托上述多語言語義內核提供的全量語義信息,語義級 RAG 在大規模工程的代碼遮蔽(Code Masking)實驗中表現出了極高的確定性。該評估驗證了系統在邏輯片段缺失的極端情況下,依然能通過 CAL 索引精準召回私有語義,確保交付件的語義合法性。

      1. 評估流程:代碼遮蔽與類型檢索

      • 實驗設計:隨機抽取 Java 源代碼片段進行“遮蔽”處理(如上圖所示隱藏關鍵業務邏輯),僅保留方法簽名與基礎結構。

      • 檢索對齊:系統需從全量工程索引中識別并召回預設的關鍵符號(如 java.io.File 及私有庫 IPath、ModuleInfo 等)。實驗結果顯示,系統能夠準確鎖定深層私有依賴,實現語義維度的精確映射。

      2. 核心性能指標

      在百萬行級工程的基準測試中,語義級 RAG 展現了顯著的檢索深度:

      • 召回率(Recall):TopK-5 達到 87.5%,TopK-50 達到 97.5%。這意味著絕大多數核心代碼語義均能被索引系統成功捕獲。

      • 精確度(Precision):TopK-5 精確度為 20.8%。由于代碼上下文中真實的正確符號通常僅 1-2 個,該指標說明系統已在極窄的候選池中鎖定了標準答案。

      5 工程實測:多語言語義內核實現更低成本、更確定性的 AI 編程

      本次工程實測的核心目標,在于量化驗證“工具語義內核驅動”的技術路徑在處理企業級復雜任務時的實際作用。我們希望通過對多語言語義內核的接入,評估其在降低推理成本與提升交付確定性方面的工程價值。

      實驗中引入的對比方案僅作為行業基準參考,旨在客觀呈現不同技術路線在相同工程負載下的表現差異,而非針對具體產品的橫向評測。我們更關注的是,如何通過底層工具鏈的確定性,為大規模 AI 編程尋找一條更具可持續性的技術落地路徑。

      1. 協議化能力輸出

      我們將 Python 語義內核通過 MCP(Model Context Protocol) 標準封裝為系列工具集。以下為首批接入的能力清單,后續將根據企業級開發場景的實際需求,持續擴展底層的原子化工具能力:


      碼道 Python 語義內核:工具能力矩陣

      2. 實驗設計與評估體系

      • 測試對象:

        • OpenAI Codex 5.2(Medium):代表頂尖模型驅動的基準性能。

        • 國內友商 AI IDE(Codex 5.2 + 開源語言插件):代表主流工具驅動的 AI 編程工具。

        • 碼道(GLM 4.7 + Python 語義內核):驗證在基礎模型(GLM 4.7)性能弱于 Codex 的情況下,依靠 Python 語義內核實現的工程補償。

      • 監控維度:

        • 執行效能:總執行耗時與交互輪次。

        • 操作分布:包括導航、查詢、編輯及診斷。

        • 經濟性:總 Token 消耗與預估成本。其中 OpenAI Codex 5.2 參考 API 市場價(每百萬輸入 Token $1.75,每百萬輸出 Token $14.0)進行成本推算;友商 AI IDE 直接采用其系統內置的成本統計數據;GLM 4.7 參考 API 市場價(每百萬輸入 $0.6,輸出 $2.2)核算。

      • 三類實驗任務:從基礎操作到復雜邏輯集成

        • T1:基礎重構(Poetry 項目) —— 側重于原子化執行。在 Poetry 源碼中執行跨文件的安全重命名(Safe Rename),驗證 Agent 對代碼符號定位的準確性、執行性能和成本。

        • T2:復雜理解(Django 代碼庫約 100 萬行 Python 代碼) —— 側重于全局語義檢索。針對 Django 代碼庫進行深度解析,通過類型繼承體系評估代碼變更的影響面。

        • T3-T4:復雜新功能(端到端集成) —— 側重于模糊需求下的邏輯交付。在不指定具體類名或方法名的情況下,開發全新的跨模塊特性,并交付完整的業務邏輯代碼。

      3. 實驗任務 T1:基礎重構,Poetry 全工程安全更名

      • 用戶 Prompt

        • 將 EnvManager.generate_env_name 方法重命名為 build_env_name,并同步更新工程內部所有調用點及測試用例。需確保業務行為保持不變。

      • 測試結果:



      碼道 + Python 語義內核(27.3k)

      • 性能與成本對比分析

        • 與 OpenAI Codex 5.2 相比:成本降低 83.4%,Token 消耗減少 35.0%,耗時增加約 20%(執行速度略慢)。

        • 與 友商 AI IDE 相比:成本降低 87.8%,Token 消耗減少 49.8%,耗時縮短 41.6%。

        • 接入 Python 語義內核后,碼道 的任務耗時縮短約 66%,成本與 Token 消耗同步削減了約 46%。


      4. 實驗任務 T2:Django 工程分析


      • 用戶 Prompt:

        • 我計劃在 BaseHandler 中添加一個響應埋點掛載。請先識別所有相關的子類并評估該改動可能帶來的潛在影響。

      • 測試結果:



      碼道 + Python 語義內核(34.5k)

      • 性能與成本對比分析

        • 與 OpenAI Codex 5.2 相比:成本降低 86.6%,Token 消耗減少 47.7%,執行耗時縮短 20.0%。

        • 與 友商 AI IDE 相比:成本降低 78.5%,Token 消耗減少 26.1%,執行耗時縮短 36.1%。

        • 接入 Python 語義內核后,碼道 的任務耗時縮短約 50%,成本與 Token 消耗同步削減了約 37%。

      5. 實驗任務 T3:二段跳功能實現

      針對接下來的復雜新功能測試,我們選用了一個完全由 碼道 構建的真實 Python 游戲項目。讓測試對象實現某些新功能,且在指令中不提及任何具體的類名或方法名,以最大限度還原實際開發中的模糊需求。

      碼道構建的 Platformer 游戲

      • 用戶 Prompt:

        • 添加一個‘二段跳’新功能。玩家在拾取該道具后,即可在空中額外跳躍一次,落地后該額外跳躍次數重置。請在 HUD(抬頭顯示)中提供清晰的狀態指示器。同時,請將該道具放置在初始關卡中,以便能夠立即測試功能效果。

      • 測試結果:


      • 性能與成本對比分析

        • 與 OpenAI Codex 5.2 相比:成本降低 79.1%,Token 消耗減少 18.3%,執行耗時增加約 57.9%(執行速度較慢)。

        • 與 友商 AI IDE 相比:成本降低 79.0%,Token 消耗減少 16.9%,執行耗時增加約 25.8%(執行速度較慢)。

      依托 Python 語義內核提供的全量索引,結合語義級 RAG、指令化重構及代碼自主校驗等技術,碼道 能夠一次性成功完成任務

      碼道 二段跳功能實現

      6. 實驗任務 T4:新增回旋鏢武器類型

      • 用戶 Prompt:

        • 新增‘回旋鏢’(Boomerang)武器類型,并將現有的‘爆破筒’(Blaster)保留為默認武器。請創建一個新的道具拾取標識(R)用于解鎖回旋鏢。玩家通過 Tab 鍵在武器間切換,且 HUD(抬頭顯示)需同步展示當前選中的武器。回旋鏢在發射后應向前飛行、伴隨可見的旋轉動畫并最終回到玩家手中,且在往返路徑上均能對敵人造成傷害。請在初始手工關卡中放置至少一個 R 標識道具,以便我在一分鐘的游戲流程內即可測試新武器功能。

      • 測試結果:



      碼道 + Python 語義內核(87k)

      • 性能與成本對比分析

        • 與 OpenAI Codex 5.2(任務執行失敗) 相比:成本降低 78.4%,Token 消耗減少 15.5%,執行耗時增加約 41.5%(執行速度較慢)。

        • 與 友商 AI IDE 相比:成本降低 76.4%,Token 消耗減少 10.3%,執行耗時增加約 10.4%(執行速度較慢)。

      OpenAI Codex 無法實現正確的回旋鏢邏輯

      碼道 成功實現正確的回旋鏢邏輯

      7. 實驗說明與初步結論

      本次工程實測旨在初步探索多語言語義內核(Unified Polyglot Semantic Core)接入后,對 Agent 在真實開發場景下成本與效能的影響。以下為基于當前實驗環境的技術說明:

      • 工程優化空間:本次實驗側重于驗證底層內核接入后的基準表現。事實上,目前采用的 MCP 協議并非性能最優的集成方式,且尚未針對特定的 Agent 任務編排(Orchestration)或工具鏈調用邏輯執行深度調優。隨著交互策略的精細化與算法迭代、模型服務性能優化,Token 損耗及整體執行時間仍具備顯著的下行空間。

      • 環境變量說明:所有實驗數據均采集于真實開發場景,力求客觀反映各方案在百萬行級工程(如 Django)下的基準狀態。由于測試節點部署于海外,受跨境網絡鏈路時延影響,執行耗時數據在本地生產環境下預計會有更平穩的表現。

      • 工具底座的補償效應:實測觀察到,盡管 友商 AI IDE 在 Agent 邏輯的完備性與模型響應速度上展現了成熟的工程實現,但 碼道 深厚的工具底座可以在很大程度上彌補模型服務側的差距。

      6 總結與展望:算力暴力與工程確定性的共生

      基于 2026 年的技術現狀,模型驅動的“算力暴力”與工具驅動的“工程確定性”并非互斥,而是“上限”與“下限”的互補。

      從現實落地性來看,基于工程確定性的路徑是目前企業級場景下更務實的方案。在百萬行級代碼的生產環境中,全量加載超長上下文帶來的 Token 成本、推理延遲及邏輯隨機性,仍是制約規模化落地的核心瓶頸。通過 CMM 與 CAL 等底層優化,語義級 RAG、指令重構、自主校驗等技術,將“推理開銷”下放為“本地計算開銷”,是實現 AI 編程普惠的經濟前提。

      我們認為,“以工程確定性為體,以算力暴力為用”的融合路徑是 AI 編程落地企業的最優解

      • 工具驅動作為“主流底座”:依托多語言語義內核,將 LLM 的產出約束在受控的工程框架內,決定了交付的“穩”與“下限”。

      • 算力暴力作為“高端補充”:利用超大上下文提供全局推理能力,決定了 AI 理解復雜邏輯能走多“遠”與“上限”。

      目前,文中提到的基于多語言語義內核的各項特性將會逐步在華為云碼道企業版落地。歡迎各位開發者與企業用戶針對實際工程中的性能瓶頸或準確率問題向我們反饋訴求,協助我們持續細化和調優底層的原子化工具能力。

      作者簡介:

      王亞偉,華為云開發工具效率首席技術專家,華為云碼道(CodeArts)首席架構師

      Eclipse 基金會 OpenVSX 指導委員會(Steering Committee)成員,前微軟開發者事業部資深研發主管。主導了華為云碼道(CodeArts)多語言語義內核與 AI 融合架構的研發。在智能代碼補全、全庫索引檢索、自動化重構等領域擁有 30 余項全球專利(其中中國、美國、歐盟已授權 16 項),致力于通過底層內核技術與 AI 的深度融合,提升大規模企業級軟件的交付質量與效率。

      會議推薦

      OpenClaw 出圈,“養蝦”潮狂熱,開年 Agentic AI 這把火燒得不可謂不旺。在這一熱潮下,自托管 Agent 形態迅速普及:多入口對話、持久記憶、Skills 工具鏈帶來強大生產力。但這背后也暴露了工程化落地的真實難題——權限邊界與隔離運行、Skills 供應鏈安全、可觀測與可追溯、記憶分層與跨場景污染、以及如何把 Agent 納入團隊研發 / 運維流程并形成穩定收益。

      針對這一系列挑戰,在 4 月 16-18 日即將舉辦的 QCon 北京站上,我們特別策劃了「OpenClaw 生態實踐」專題,將聚焦一線實踐與踩坑復盤,分享企業如何構建私有 Skills、制定安全護欄、搭建審計與回放機制、建立質量 / 效率指標體系,最終把自托管 Agent 從可用的 Demo 升級為可靠的生產系統。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      明晚開播!CCTV8黃金檔又一部大制作劇來襲!陣容好強大

      明晚開播!CCTV8黃金檔又一部大制作劇來襲!陣容好強大

      動物奇奇怪怪
      2026-03-21 19:59:17
      日本外務省反思:高市訪美時機“糟糕透頂”

      日本外務省反思:高市訪美時機“糟糕透頂”

      參考消息
      2026-03-20 21:41:07
      風水輪流轉!曾被焦裕祿用來擋風沙的樹,今成日本樂師眼中的寶貝

      風水輪流轉!曾被焦裕祿用來擋風沙的樹,今成日本樂師眼中的寶貝

      魚語昱雨軒
      2026-03-21 05:28:16
      殲-20總師被除名:長期任軍工央企高管,一年多未露面一細節罕見

      殲-20總師被除名:長期任軍工央企高管,一年多未露面一細節罕見

      博士觀察
      2026-03-19 08:44:39
      馬筱梅稱在臺辦滿月宴,由姥爺包辦,兒子姓氏要商量,張蘭不參加

      馬筱梅稱在臺辦滿月宴,由姥爺包辦,兒子姓氏要商量,張蘭不參加

      念得小柔
      2026-03-20 22:05:12
      隨著澳大利亞0-1,女足亞洲杯冠軍出爐:世界第8隊史第三次稱王

      隨著澳大利亞0-1,女足亞洲杯冠軍出爐:世界第8隊史第三次稱王

      側身凌空斬
      2026-03-21 18:54:24
      今早杭州一高層失火,隔壁小區住戶:“當時外面白茫茫一片,火很快撲滅”

      今早杭州一高層失火,隔壁小區住戶:“當時外面白茫茫一片,火很快撲滅”

      都市快報橙柿互動
      2026-03-21 13:16:49
      賴清德宣布將重啟核電,王鴻薇痛批:民進黨應為錯誤能源政策道歉

      賴清德宣布將重啟核電,王鴻薇痛批:民進黨應為錯誤能源政策道歉

      海峽導報社
      2026-03-21 15:57:13
      看了姚晨的舊照,才明白凌瀟肅曹郁為啥相繼淪陷了,嘴大不是缺陷

      看了姚晨的舊照,才明白凌瀟肅曹郁為啥相繼淪陷了,嘴大不是缺陷

      八斗小先生
      2026-03-20 15:24:18
      以軍稱正在打擊“伊朗政權目標”

      以軍稱正在打擊“伊朗政權目標”

      財聯社
      2026-03-21 11:32:06
      油價暴漲不用慌!官方“定調”:中國接得住,底氣全在這兒

      油價暴漲不用慌!官方“定調”:中國接得住,底氣全在這兒

      跳跳歷史
      2026-03-21 16:10:53
      4s店蹭飯260頓后續:經調解,一周吃三頓,賠付2000元,車主不同意

      4s店蹭飯260頓后續:經調解,一周吃三頓,賠付2000元,車主不同意

      觀察鑒娛
      2026-03-20 09:57:04
      女子開特斯拉Cybertruck撞護欄索賠100萬美元 馬斯克公開回應了

      女子開特斯拉Cybertruck撞護欄索賠100萬美元 馬斯克公開回應了

      快科技
      2026-03-19 17:24:13
      葛均波擔任上海百匯醫院首席科學家,明確表示“不領薪”

      葛均波擔任上海百匯醫院首席科學家,明確表示“不領薪”

      第一財經資訊
      2026-03-21 21:13:09
      內塔尼亞胡失算了,擊中俄羅斯人后,普京一聲令下,以色列恐遭殃

      內塔尼亞胡失算了,擊中俄羅斯人后,普京一聲令下,以色列恐遭殃

      觸摸史跡
      2026-03-21 03:58:23
      浙江男籃官宣:頂薪劉澤一腰椎間盤突出伴坐骨神經痛 傷停4周

      浙江男籃官宣:頂薪劉澤一腰椎間盤突出伴坐骨神經痛 傷停4周

      醉臥浮生
      2026-03-21 13:50:37
      揮淚斬馬謖!曝利物浦批準,“超巨”確認離隊!欽點簽1.8億強援

      揮淚斬馬謖!曝利物浦批準,“超巨”確認離隊!欽點簽1.8億強援

      頭狼追球
      2026-03-21 10:22:51
      霍爾木茲海峽,傳來大消息!以色列國防軍,最新發聲!

      霍爾木茲海峽,傳來大消息!以色列國防軍,最新發聲!

      數據寶
      2026-03-21 18:08:37
      水深9533米!中國科學家發現巨大的“生命綠洲”,綿延2500公里

      水深9533米!中國科學家發現巨大的“生命綠洲”,綿延2500公里

      心中的麥田
      2026-03-19 19:43:11
      接連輸給日韓兩隊!中國隊世錦賽遺憾出局,上屆比賽曾拼下銅牌

      接連輸給日韓兩隊!中國隊世錦賽遺憾出局,上屆比賽曾拼下銅牌

      羅掌柜體育
      2026-03-21 12:06:43
      2026-03-21 21:56:49
      InfoQ incentive-icons
      InfoQ
      有內容的技術社區媒體
      12188文章數 51814關注度
      往期回顧 全部

      科技要聞

      宇樹招股書拆解,人形機器人出貨量第一!

      頭條要聞

      軍事專家推演美軍奪取哈爾克島的三種可能:步步驚心

      頭條要聞

      軍事專家推演美軍奪取哈爾克島的三種可能:步步驚心

      體育要聞

      誰在決定字母哥未來?

      娛樂要聞

      田栩寧終于涼了?出軌風波影響惡劣

      財經要聞

      通脹警報拉響,加息潮要來了?

      汽車要聞

      小鵬汽車2025年Q4盈利凈賺3.8億 全年營收767億

      態度原創

      家居
      本地
      健康
      公開課
      軍事航空

      家居要聞

      時空交織 空間綺夢

      本地新聞

      春色滿城關不住|紹興春日頂流,這片櫻花海藏不住了

      轉頭就暈的耳石癥,能開車上班嗎?

      公開課

      李玫瑾:為什么性格比能力更重要?

      軍事要聞

      特朗普:正考慮逐步降級對伊朗的軍事行動

      無障礙瀏覽 進入關懷版