在嵌入式世界里,微控制器很重要,卻常常被忽視,以至于很少出現在任何技術浪潮的宏大討論中。但正是這些數以千萬計的芯片,支撐著工業系統的穩定運行、家電設備的日常響應,以及無數傳感器與執行器之間的基本邏輯。
即便是AI來臨時,MCU也只負責確定性控制,把復雜計算和智能留給了應用處理器及云端,這種分層不僅清晰,而且更加的經濟高效。
如今,這種穩定正在被打破。
以Agent AI為代表,證明邊緣端也可以有一定的AI能力,這時既不需要也不能夠把所有AI能力都交給云端。同樣,對于更邊緣的產品而言,AI能力也變得重要,比如語音喚醒不能等待網絡返回,工業異常檢測不能依賴遠程決策,可穿戴設備更無法承受持續的數據上傳。
德州儀器(TI)將邊緣AI趨勢歸結為四個維度:響應速度、功耗、隱私與可靠性。這些因素最終指向同一個方向,計算必須回到數據誕生的地方。
MCU能否承載AI?
當計算位置發生變化,MCU的角色也被迫改變。它不再只是執行預設邏輯,而開始面對原始數據,這意味著它需要具備一定的理解能力。
但問題在于,MCU是否承載得起AI?
長期以來,答案是否定的。MCU的資源約束決定了它難以運行復雜模型,而一旦引入AI計算,又會直接影響實時控制的確定性。
也正因為如此,邊緣AI在過去幾年主要停留在高性能處理器、SoC或者至少是高端MCU上,比如最起碼也要意法的STMN6,或者英飛凌PSoC Edge等MCU中,這些MCU的性能甚至達到了SoC的水平,以至于被視為正在跨界SoC的產品。
但是,并不一定所有AI MCU都需要更高級的處理器以及更大的存儲空間,比如TI選擇了一條更具挑戰性的路徑:不是讓MCU變成處理器,而是讓AI適應MCU。
讓AI與控制并行存在
德州儀器 MSP 微控制器產品線經理羅一丁提出了一句高度概括性的判斷:“AI不應該只存在于云端,而應該無處不在地運行在每一個嵌入式設備中。”AI的普適性給了MCU更多的發展空間。
但是也如德州儀器 ASM 微控制器工業業務負責人吳健鴻所述:“如果用CPU去跑AI模型,它就無法同時做好電機控制。”
也就是說MCU很難承載AI的根本原因——資源沖突。
TI的解決方式,是在MCU內部引入TinyEngine NPU,并通過硬件層面的任務劃分,讓兩種本質不同的計算同時存在:
CPU負責實時控制,NPU負責AI推理
吳健鴻給出了清晰的總結:“我們加入NPU的核心原因,就是為了讓AI運算和實時控制可以并行,而不是互相干擾。”
這并不是一次簡單的性能升級,而是一次架構上的解耦。它讓中低性能的MCU第一次可以在不破壞確定性及低延遲的前提下,引入非確定性的智能計算。
![]()
TinyEngine NPU非常適配功耗、成本均受限的AI場景中
TinyEngine NPU 核心優勢
![]()
根據TI的官方闡述,TinyEngine NPU 突破了長期以來制約嵌入式人工智能廣泛普及的關鍵設計瓶頸,具備以下優勢:
1.相較于純軟件實現的人工智能方案,單次推理能耗降低至 1/120,延遲降低至 1/90
2.算力達 2.56 GOPS,可支撐深度學習模型的實時邊緣 AI 推理。
3.支持 8 比特、4 比特、2 比特量化及混合精度配置,支持原位運算,有效解決存儲容量受限問題。
4.兼容多種神經網絡層類型,包括卷積層(常規卷積、深度卷積、逐點卷積、轉置卷積)、全連接層、池化層(平均池化、最大池化),并支持批歸一化。
5.簡化工具鏈降低開發復雜度,開發周期從數周縮短至數小時。
可以看出,TinyEngine并不試圖對標高端SoC,但它的目標更明確——在超低功耗和低成本下,完成足夠好的AI推理。
![]()
![]()
比如在TI的一個演示中,使用Arm CPU處理手寫識別模型時延達到了91ms,而使用NPU時,處理速度僅為6ms,提升了15倍之多。
一美元的AI:邊緣AI的分水嶺
TI正在把AI能力推向更低成本區間。
MSPM0G5187的定價頗具象征意義。這顆基于Cortex-M0+的MCU,在集成2.56 GOPS NPU的同時,將價格壓低至1美元以內,使AI第一次進入大規模成本敏感市場。
![]()
MSPM0G5187產品框圖
羅一丁在發布中提到:“很多邊緣AI應用過去無法落地,并不是沒有需求,而是受限于功耗、成本和尺寸。”
當這些約束被打破時,AI可以以更低成本進入此前的智能設備中。例如在MSPM0G5187的AI示例展示中,可應用于包括智能家居設備中的喚醒詞檢測、可穿戴健康監測設備中的手勢與活動監測甚至工業電機中的電機振動檢測等等,這些AI應用不再依賴云端,而是在本地完成。
這種變化的關鍵不在于更強,而在于更普及。
從執行控制到參與決策
相比MSPM0系列在低功耗場景中的擴展,AM13Ex系列則體現了另一種方向:AI正在深入控制系統內部。
AM13Ex的重點不止是NPU,而是NPU真正結合了實時控制能力。實際上,此前TI已經在C2000中集成了NPU。如今,在TI Arm實時控制MCU體系中,也同樣集成了NPU,使得產品體系更為廣泛。
無論是20多年間的C2000系列,還是TI如今的Arm實時控制產品線,始終圍繞一個核心目標展開:如何在復雜系統中保持確定性與高精度控制。而AI的加入,并不是替代這一體系,而是增強它。
![]()
AM13Ex產品框圖,以及應用于洗衣機中的示例
吳健鴻舉例道:“在光伏系統的電弧檢測中,傳統方法大約85%的準確率,而通過TI的NPU,AI可以將準確率提升到超過99%。”
這種提升并不僅僅意味著更好,而是在很多場景中意味著從不可用變為可用。例如在電機的軸承的故障檢測、洗衣機負載平衡、電池健康檢測、風機負載失衡檢測,空調系統優化,控制算法優化等等更多功能。
![]()
NPU在電機控制中的應用舉例
更關鍵的是,這一切并沒有打破原有控制架構。吳健鴻特別強調:“CPU還是專注做控制,NPU去做判斷,兩者是分工協作的關系。”
在這種架構下,MCU不再只是執行控制算法,而是開始參與決策過程本身。這標志著其角色從控制器向系統節點的轉變。
值得一提的是,在電機控制領域,TI提供了兩大選擇,既有傳統的C2000產品線,同時也有基于Arm的產品線。“客戶已經在Arm生態中積累了大量代碼,我們必須讓他們在不改變體系的前提下,也能用上C2000的各種實時控制與外設的能力。”吳健鴻說道。
MCU競爭正在發生轉移
當MCU開始具備AI能力,其競爭維度也隨之改變。但競爭已經不再局限于參數或價格,而是延伸到系統能力與開發效率。與此同時,SoC廠商與新興AI芯片公司也在向下滲透,試圖以更強算力覆蓋MCU場景。
在這樣的多重競爭中,TI的策略并不是單點突破,而是構建完整的系統AI能力,包括C7 NPU(已應用于TDA54-Q1 與 TDA4VEQ1 SoC中),以及TinyEngine。另外值得一提的是,TI更是從模擬信號鏈到控制,再到AI推理,其能力覆蓋了一整條技術路徑。
TI始終強調其從傳感到AI的整體能力,這種整合,使MCU不再是孤立器件,而成為系統架構中的關鍵節點。
羅一丁強調,在邊緣 AI 領域,大家很容易陷入單純的跑分競賽,但真正的商業落地看重的是綜合效能——如何提供更好的算力與能耗比,而非單純依賴云端 AI。
AI需要可擴展性
為了迎接邊緣AI萬物時代的到來,產品需要考慮演進與擴展。工程師們不愿花費數月時間基于某款微處理器開發解決方案,卻在產品升級至更高性能處理器時不得不從頭再來。也正因此,芯片廠商需要打造在功能、性能和成本上均具備可擴展性的產品系列。這一思路有助于確保其各類人工智能嵌入式處理器之間實現無縫遷移,讓開發者能夠盡可能簡便地在不同器件間復用已有開發成果。邊緣AI同樣遵循這一規律。例如,設計家用機器人的開發者可能希望同時推出兩款產品:一款配備三個攝像頭、具備環視視覺功能的高端版本,以及一款僅搭載單個前置攝像頭的入門級版本。
具備可擴展性的邊緣 AI 加速器件產品系列,能夠支持軟件從高端機型移植到入門級機型,最大限度減少兩款產品的開發資源投入。可擴展性還能讓開發者在產品迭代過程中,將研發投入從一個平臺延續至下一個平臺。
TinyEngine NPU就是一個最好的例子。
正如上文所述,搭載 TinyEngine NPU 的德州儀器微控制器目前包括以下三款已發布的產品。
TMS320F28P550SJ該芯片屬于 C2000 系列 TMS320F28P55x 微控制器,其內置 NPU 可分擔主 CPU 的 AI 推理任務。
AM13E230x該系列基于 Arm CortexM33 內核,通過集成 NPU 與先進實時控制架構,在家電、機器人及工業系統中實現自適應控制與預測性維護。
MSPM0G5187該系列為 80MHz Arm CortexM0+ 內核微控制器,隸屬于 TI MSPM0 產品家族,借助 NPU 在高性價比、低功耗電子設備中實現邊緣 AI 能力。
另外,TI還開發了C7 NPU,這是一款高性能、低功耗的人工智能加速器,集成于 TDA54-Q1 與 TDA4VEQ1 系統級芯片(SoC)中,以滿足視覺類應用的算力需求。
![]()
軟件成為關鍵開發體驗
除了硬件架構,軟件正在成為另一個決定性因素。
羅一丁表示,開發者對工具鏈的重視程度往往超乎硬件本身。TI 提供的工具能讓傳統的嵌入式工程師在幾天內跑通 AI 模型,而不是幾周,這種易用性是TI的核心軟實力。
吳健鴻表示,目前TI提供了兩套IDE,一是傳統的 CCStudio 集成開發環境,內置 TI 專屬編譯器,同時增加 AI 輔助功能,大幅降低軟件開發門檻。二是 CCStudio Edge AI Studio,這款工具面向客戶免費開放,覆蓋 AI 設計全流程——不僅可快速搭建適配模型,還能完成數據采集、神經網絡選型與優化、模型訓練及跨 MCU 部署等工作。
目前,TI的Edge AI Studio提供了已提供超過 60 種模型和應用示例,工程師可直接導入評估。
![]()
如圖所示,Edge AI Studio支持各類分類、檢測、時序等等AI應用。
TI的CCS開始支持生成式AI
隨著大語言模型的普及,vibe coding正在擴展至各類編程工具中,嵌入式同樣如此。在2026 Embedded World上,德州儀器展示了CCStudio生態系統中集成的生成式 AI,通過集成 Claude Code 接口,設計人員能結合 TI 豐富的示例庫加快代碼開發與系統配置。
羅一丁提到:“工程師可以用自然語言生成代碼,在幾分鐘內完成部署。”這不僅降低了門檻,也在改變嵌入式開發邏輯本身。
![]()
TI已經展示了一系列利用生成式AI加速嵌入式開發的示例。
![]()
如圖所示,CCS接入了Claude Code,自然語言描述如下:我擁有一塊MSPM0G3507 LaunchPad開發板和一塊BOOSTXL-EDUMKII擴展板。請利用L-C 搖桿與按鍵實現一個打磚塊游戲,并使用蜂鳴器播放音效。游戲開始前,需加入搖桿校準步驟。
用戶輸入這些自然語言之后,CCS便會自動進行執行系統配置,代碼編寫等等功能。
羅一丁說道:“未來會看到更多的工程師利用 AI 的代碼生成功能,實現研發周期的縮短,我非常鼓勵大家自己去下載并嘗試這些AI強大的功能。”
MCU重新成為系統的核心節點
從更宏觀的角度來看,MCU當然并沒有被AI時代淘汰,反而因為AI的引入獲得了新的生命力。只是這種變化,不再體現在單一性能指標上,而體現在其在系統中的位置變化。
它正在成為最靠近物理世界的數據處理與決策節點。
這也解釋了為什么像TI這樣的公司,既有TDA5這樣更強大1200 TOPS算力的處理器,同時也有集成MOPS或者GOPS算力的MCU。
正如吳健鴻在談到MCU在人形機器人應用時所指出的:“如果所有數據都回到大腦再做決策,就一定會有延遲。”
這句話實際上給出了邊緣AI最本質的邏輯:AI必須以分布式存在。而MCU,正是這種分布式智能中最基礎、也最關鍵的節點。
當系統復雜度不斷提升時,那些在底層穩定運行的組件,則會成為決定系統下限的關鍵。
MCU不會消失,但它正在完成一次角色轉變——從單純的執行走向AI系統的邊緣。
1978 年 TI 發明了數字信號處理技術,為未來的人工智能發展鋪平了道路。四十年過去,如今的這場變化,也才剛剛開始。
來源:電子工程世界(EEWorld) 作者:冀凱
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.