智能原生(AI Native)應用是這次AI帶來的最大的變化,當然也就孕育最大的機遇。遠不是所有的應用都是智能原生應用,甚至包括以AIGC為核的各種產品,也并非智能原生應用。
智能原生應用背后有一條脈絡,從技術到應用的表現,但因為根子是編程的模式,非程序員估計不好理解,所以10.7 19:00 琢磨事AI碰撞局社區會做一場線上的小活動,以OpenAI Swarm為例子用非技術語言碰撞這點,感興趣的同學聯系shuixiu2024。程序員出身的同學建議自己直接讀程序。
假的智能原生應用
到現在為止很多工具其實并非智能原生應用,比如把大模型封裝下,然后生成圖片,最典型就是過去的MJ,這是模型或者套殼工具,但不是智能原生應用。
當然,把人臉識別算法嵌入到原來的應用中,比如加入個刷臉閘機的園區通行系統,這也不是智能原生應用。這點以前寫過很多,參見:。
之前經常用下面這張愛立信的圖來描述智能原生的含義:
![]()
左側是AI算法的單點應用,右側核心依賴于AI算法的才是智能原生應用。找準這個才能找準技術帶來的變量。
當然這里不是說非智能原生應用就不創造價值,而是說它不是眼下LLMs所代表的最大變化。
OpenAI Swarm Demo的特征
只看圖會有點虛,很巧的是OpenAI Swarm提供了個例子。
下面我貼段代碼,然后做解讀,這段代碼也不復雜,可以當自然語言看。
![]()
注:https://cookbook.openai.com/examples/orchestrating_agents 程序員能看,里面講清楚了模型和應用的角色邊界。
上面代碼其實就做了這樣2件事情:
1. 創建了退款、銷售、導引三個智能體。每個智能體包含了角色的定義、功能。(參照:)
2. 導引負責把用戶的需求導引到銷售或者退款智能體。銷售和退款智能體負責具體干活。
再然后Swarm這個項目里面是具體細節,負責把這些設定在不同的時機變成變成提示詞扔給大模型,再把大模型返回的內容轉換成具體的函數調用。然后負責把各種五花八門的請求轉化成具體賬戶上的購買或者退款操作(操作相關數據庫)。
這看著很簡單,但和過去的巨大區別已經出來了。
真智能原生應用與劃時代的點
過去的程序要分解也有兩部分:一部分是退款、銷售這樣的直接功能;一部分則是在各種情況下執行這兩個操作,比如到底喜歡什么款式,喜歡什么付款方式等。程序員干的事主要就是處理各種輸入,把它轉換為最終的退款、銷售這樣的操作。這部分占工作量的百分之八十。
現在好了,程序員這第二部分工作模型直接根據用戶說的就干了。為了讓這樣的應用跑起來就需要定義上面的Agent,然后構建一種和LLMs的持續交互機制。
并且這個模式隨著AI能力的越來越通用和強大,幾乎可以干任何事。
也許這還是有點抽象,我們拿特斯拉自動駕駛做個類比。
自動駕駛不管環境多復雜,其實輸出的就三個操作:方向盤操作、加速、剎車。
一種方法是寫規則(早期),比如:如果前面碰見違規行人,就減速這類。大概樣子就下面這樣:
![]()
Explicit Planning&Control那地方沉淀大量規則來處理事出現行人了、信號燈什么樣等等。這也能用,但顯然的第一維護的成本太高,第二如果出現沒處理過的情況就死菜了。
那變成智能原生后什么樣呢?
![]()
![]()
(source:https://www.thinkautonomous.ai/blog/tesla-end-to-end-deep-learning/)
這一共是三個階段,Full Deep Learning是個過渡階段,上面是過去的基于規則,中間是兩套神經網絡,最后則是端到端模型。甚至有人現在也認為特斯拉的自動駕駛也還是這個階段,而不是純粹的端到端階段。但不管怎樣,過去人負責設定規則的部分,扔給模型了。
這就能夠處理人不知道,數據知道的情況,但壞處確實就是黑盒了,引發新的安全問題。
但這是劃時代的點,過去的所有應用不是這個樣子。
智能原生面臨巨大挑戰
特斯拉的FSD12想必開銷巨大,但你細想也就搞定了三個操作。而智能原生真的實現,那意味著把每個行業的N個操作都整成上面的模型。這顯然是巨大機會和藍海,但挑戰無疑是全方面的。
從下面這個粗略的概括上,我們可以看到這種挑戰來自于哪里:
智能原生應用= LLMs + 操作性功能(functions) + 流程設定 +提示詞
第一,對于LLMs,是精度和成本問題。因為要執行大量方法調用,不是幾個幾百個,而是完成任何一個功能都是幾萬次調用。那出錯怎么辦?出錯是有成本的,有些操作可能導致整個數據就錯了,比如這個人沒買過某產品,就被誤操作成了買過,那怎么整?(不是tokens的成本)
好消息是從Glean等的進展來看,這個精度至少在Copilot上是可用了。
第二,交互過程中怎么精確給各個具體功能設定調用參數,比如購買行為同時需要型號、價格、優惠政策等。這些東西都靠人補充就崩潰了。需要一套有效的系統,根據用戶信息、系統的信息、提示詞進行拆分。
AI碰撞局上,瀾碼的周健分享過一個方法,正是在解決第二點的一個思路這是很難的。
![]()
(By 瀾碼周健)
AIGC的意義
AIGC中的代碼生成在上述框架里會具有特殊的意義。假如生成的代碼精度足夠高,智能原生程序可以修補自己。
想象一種場景,整套產品跑跑,突然出錯了,那可以設置一個維修的智能體,去檢查錯誤,然后生成代碼,自己對自己進行修補。
所以不要再因為計算不行低估LLMs的能力,如果它代碼生成能力上來,這些就都不是事兒。凡是過去代碼能干的事,就都不是事兒。
軟件吞噬世界,AI吞噬軟件大概出發點就在這里。
底層邏輯
弄清楚上面這些有什么用?其實可以避免走錯路。
Sam Altman講了個點(大意):如果你做了個應用,每天擔心LLMs的進展會不會把自己覆蓋掉,那你大概率是選錯方向了。反之,如果每次LLMs的進展都讓你興奮,那基本是對的。
真的智能原生程序不可能有前面的問題。為了說清楚,還是用一個之前提到過的公式:
智能效能 = LLM的“智商” x 現實理解縱深
做智能原生應用的,顯然核心任務是構建一套理解現實縱深的系統,這套系統要給LLM準備好條件,讓它能夠把自己的威力發揮出來。
這是智能原生系統的本質。在這個出發點上,當然LLMs越進展,你產品的價值越大。
而這樣的智能原生系統就一定是系統型超級應用,表現為:智能優先、萬物皆數、實時反饋、中心決策。
參見:
黑盒的本質含義
一說模型的黑盒,更多的時候大家會想到安全問題,但如果換個視角就會發現這是個執行權的遷移過程。
智能原生的本質含義在于人類向AI模型讓渡很多很多的權利。為了靠譜一點當然要讓AI在好使之外更安全,所以需要對齊等等。(經濟現實上Sam Altman是對的,但人文情懷上Ilya是對的)。
單線的經濟合理性就是我們之前說的:
如果我們相信一種效能更高的方式一定替換低的,那就智能原生的方式就一定會變成現實,并且重構人類在經濟體系中的角色。
問題根本不是這個會不會發生,而是發生的快慢以及后果。企業家負責讓他發生,體現效率,治理層面負責讓它不成為脫韁的野馬,最終的綜合也許就是一種新的文明形態,參見:
小結
差不多一年前,我寫了一系列的這類文章,反響一般,但現在回看確實有種歷史在按照預想展開的感覺,還是很讓人高興的。這些文章具體包括:
現在看這就是智能原生的基本框架,沒啥太大錯誤。其中智能原生應用必然是系統型超級應用一點,現在也很少人講,但未來可能會越來越清楚。
AI碰撞局往期的記錄:
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.