全文 4,000字 | 閱讀約 13 分鐘
![]()
(TED演講:從紙帶實驗看AI智能的本質(zhì))
你以為,AI 必須“理解你”,才能把事辦成?
谷歌副總裁 Blaise Agüera y Arcas 卻說:錯了,它根本不需要懂你,只要能預(yù)測你就夠了。
這不是文字游戲,而是智能設(shè)計的底層邏輯。
在最近的 TED 演講《The Intelligence of Us》中,Blaise 提出一個重要觀點:
智能不是關(guān)于像不像人,而是能不能預(yù)測,并在協(xié)作中落地。
Blaise 的身份,不只是谷歌副總裁兼研究員,也是 Technology & Society 的 CTO。他既做基礎(chǔ)研究,也做產(chǎn)品落地。你手機(jī)里的預(yù)測功能,很多人每天都在用:
聽歌識曲功能: 離線識別正在播放的歌曲(他于2017年首發(fā),無需聯(lián)網(wǎng)即可預(yù)測歌名)
智能輸入法:預(yù)測你想打的下一個詞,同時保護(hù)隱私(采用聯(lián)邦學(xué)習(xí)與差分隱私技術(shù))
這兩條產(chǎn)品線,有一個共同點:不是追求理解,只求預(yù)測管用。
所以真正值得問的問題,不是“AI 懂不懂人話”,而是:
哪些工作環(huán)節(jié),AI 能給出可靠預(yù)測?
哪些重要決策,必須由人來做?
如何建立檢驗機(jī)制,讓 AI 從實驗室走向?qū)嶋H應(yīng)用?
這些問題的答案,很可能決定你們公司今年的 AI 落地效果。
第一節(jié)|不是懂你,是能幫你做事
我們一直以為,用來預(yù)測下一個詞的模型,只能做點簡單任務(wù)。 但這些模型現(xiàn)在能回答情境類問題。 比如故事中角色的情緒,甚至數(shù)學(xué)題,這讓我們非常吃驚。
這是谷歌副總裁 Blaise 在演講中講的一段回憶。
他指的是一種大多數(shù)人并不熟悉、卻天天在用的 AI 能力:預(yù)測下一個詞。
比如你打字時,Gboard 自動給出“你可能要輸入的詞”;打開 Pixel 手機(jī),它自動識別正在播放的歌曲。這些功能都不是“理解了你”,而是預(yù)測你會說什么、做什么。
一開始,人們普遍以為: 預(yù)測只能預(yù)測一些“八成會發(fā)生”的東西。 “Humpty”后面大概率是“Dumpty”,這不叫智能,叫押韻(Humpty Dumpty 是英語童謠,相當(dāng)于"小白兔白又白")。 可接下來的事,Blaise 說,顛覆了他們的判斷:
“如果前面的內(nèi)容是一個數(shù)學(xué)應(yīng)用題,或者是一個故事,而你要預(yù)測的是故事里某個角色的情緒,我們原以為模型是做不到的。但它做到了。”
這是什么意思?
它不是機(jī)械地往下填空,而是從你寫的內(nèi)容中,推斷出角色是誰、發(fā)生了什么、現(xiàn)在該怎么回應(yīng)。
而這,靠的還是預(yù)測。
1、預(yù)測怎么變成“智能”了?
Blaise 的回答來自神經(jīng)科學(xué)。至少從 19 世紀(jì)開始,神經(jīng)科學(xué)就有一種理論:人腦的本質(zhì),是用過去來預(yù)測未來。我們擁有神經(jīng)系統(tǒng),是為了讓我們能預(yù)測環(huán)境,調(diào)整行動。
換句話說,你的大腦并不是靠完全理解世界來做決策的。
而是靠快速預(yù)測:“接下來可能發(fā)生什么”“如果我這么做,會怎樣”。
預(yù)測得準(zhǔn),就活得久。 預(yù)測得穩(wěn),就少犯錯。
智能,不是源于理解,而是源于能把預(yù)測和現(xiàn)實匹配起來。
語言模型也是這樣。它沒看懂你寫的東西,但它不斷嘗試——你給我一句話,我猜你下一句會說啥;你說了一個設(shè)定,我猜你會怎么展開;你停頓了,我來補(bǔ)一下。
只要它給出的結(jié)果,讓你覺得“對”,那它就贏了。
而且,它學(xué)得越多,這種“匹配”的能力就越強(qiáng)。
2、所以關(guān)鍵不是理解,而是配合
Blaise 說,他們原以為這種模型“在本質(zhì)上會非常有限”, 但結(jié)果卻是:
它不僅回答對了情境問題,還能完成之前認(rèn)為屬于通用智能的問題。
這改變了一切認(rèn)知。
我們以為預(yù)測只能做表面,結(jié)果它做到了一定程度的配合、推理、歸納和判斷;
我們以為 AI 要先懂你,才能幫你,結(jié)果它靠預(yù)測就能順著你的想法走下去,甚至走得更快。
這就像一個沒有共情能力的人,卻能精確模仿你說話的節(jié)奏、語氣和話題點,到最后你甚至?xí)X得“它好像很懂我”。
但真相是:
它根本沒“懂”,只是太會預(yù)測了。
這,才是大語言模型爆發(fā)的關(guān)鍵所在。
第二節(jié)|AI 不是對手,是協(xié)作伙伴
語言模型的預(yù)測能力,已經(jīng)不只是說得對。 它現(xiàn)在開始能“做得成”。
這意味著什么?
它不是靠理解目標(biāo),而是靠不斷預(yù)測下一步動作,把一件事從頭做到尾。
不是我們事先教會它流程,而是它從對話中預(yù)測你的意圖,主動補(bǔ)上下一步。
1、舉個你能感受到的場景:
你說:“幫我寫一份面試邀請郵件,別太官方。”
它立刻給出一版郵件,語氣自然,還替你考慮了時間、聯(lián)系人和回復(fù)鏈接。
你沒給模板,也沒規(guī)定格式,它就是能寫出你大概想要的東西。
再比如:
你說:“這段代碼是不是有問題?”
它不只指出問題,還改好了,順便加了注釋。
你并沒有給出流程、規(guī)范、目標(biāo)、驗收標(biāo)準(zhǔn),但它都給補(bǔ)上了。
為什么它能做到這些?
Blaise 的原話是:我們沒有給它設(shè)定'這類任務(wù)怎么做'的規(guī)則,而是讓它通過大規(guī)模預(yù)測訓(xùn)練自己學(xué)會了通用能力。
這說明:
"模型不是真的理解你要什么,而是在預(yù)測你下一步的想法。
它不是有意識地制定計劃,而是預(yù)測你每一步的可能方向,并主動補(bǔ)上
這種預(yù)測,不再只是接下去說什么,而是它推測你打算干什么、要達(dá)到什么效果、然后下一步可能干嘛。
它等于是把你的想法變成了行動。
2、為什么它能做到這一點?還是因為預(yù)測
Blaise 給出的核心解釋是:智能的本質(zhì)不是規(guī)則執(zhí)行,而是能持續(xù)預(yù)測你要做什么,并給出能影響你的回應(yīng)。
通俗的說法是:
如果一個系統(tǒng)能穩(wěn)定判斷你想干嘛
并在你還沒開口之前,就給出下一個合適動作
而且這個建議你認(rèn)可、能把事情往前推 → 那它就等于成了你的"代理人"
不是機(jī)器人按命令執(zhí)行,而是 AI 把你還沒說出口的想法,提前變成了行動。
這就是為什么 AI 能接管整個工作流程。
3、它怎么知道“哪一步”是合理的?
它不知道。
它只是看過成千上萬個你和別人“怎么做事”的例子。 然后在你剛抬起手、話還沒說完的時候,它就猜到了你下一步想怎么做。
預(yù)測得越準(zhǔn),配合得越默契,任務(wù)完成得越順暢。
AI 不會告訴你"我懂你"——它只是總能猜對你下一句要說什么。
它只需要不斷預(yù)測你的下一步,然后及時跟上。
一旦預(yù)測準(zhǔn)確率足夠高,AI 就不再只是回答問題,而是能主動推進(jìn)任務(wù)。
這,就是 AI 從"語言模型"走向"行動助手"的分界線。
第三節(jié)|智能不是寫出來的,是“長”出來的
你有沒有發(fā)現(xiàn),現(xiàn)在的 AI 不只是回答問題,還會主動提建議?(小編備注:這節(jié)比較抽象,可以直接觀看演講視頻)
比如你說"我想學(xué)做菜",它不僅推薦菜譜,還會問你有什么食材、想做什么口味,甚至幫你規(guī)劃一周的菜單。
這種"主動性"是怎么來的?
谷歌副總裁 Blaise 在演講中分享了一個有趣實驗:“我們做了一件非常簡單的事:把一堆隨機(jī)的紙帶,每條只有一兩個簡單指令,丟進(jìn)一個模擬環(huán)境里。
然后不斷從里面隨機(jī)挑兩個紙帶,把它們粘在一起、運行一次、再分開,丟回去,重復(fù)千萬次。
一開始什么都沒發(fā)生。但幾百萬次交互后,一件神奇的事出現(xiàn)了:那些紙帶自己變成了完整程序,而且開始復(fù)制自己。”
1、這不是模擬智能,而是“自然長出行為模式”
一開始,這些紙帶只是亂碼。
沒有任何設(shè)計,連程序員都不知道它們會干嘛。
但因為每一步都執(zhí)行了真實的計算指令, 隨著交互的增加,一些紙帶組合出現(xiàn)了有用的指令組合,能不斷拷貝自己、留在系統(tǒng)里。
Blaise 說:
不能復(fù)制自己的紙帶,最終都會被能復(fù)制自己的紙帶淘汰掉。
這就像自然界里的選擇機(jī)制——會繁殖的生物活下來,不會的消失了。
2、那這些“紙帶程序”到底在干嘛?
沒有人教它們要完成什么任務(wù),它們自己找到了生存邏輯:能復(fù)制,就不會被淘汰;復(fù)制得多,就越來越強(qiáng)。
![]()
(紙帶實驗結(jié)果圖:
X軸—交互次數(shù)(百萬次),Y軸—計算強(qiáng)度,600萬次交互后,隨機(jī)程序突然涌現(xiàn)出自復(fù)制智能行為。)
Blaise 在實驗中畫出一張如上圖,展示整個演化過程:
“前六百萬次交互,幾乎什么都沒發(fā)生。但在某一刻,計算量突然飆升。系統(tǒng)從‘隨機(jī)狀態(tài)’變成了‘有目的行為’。”
這個轉(zhuǎn)折點非常關(guān)鍵。
沒人教它們怎么做,但它們在反復(fù)試驗中,自己琢磨出了門道、形成了套路、甚至懂得了團(tuán)隊合作。
什么叫團(tuán)隊合作?
這不只是一條紙帶能復(fù)制自己,而是兩條紙帶遇到一起時,能更高效地互相幫助復(fù)制。
這讓 Blaise 想到了進(jìn)化生物學(xué)里的“共生理論(symbiogenesis)”:比如我們身體的細(xì)胞,其實是兩種小生物住在一起的結(jié)果。它們發(fā)現(xiàn)合作比單干效果好,于是就永遠(yuǎn)搭伙了。
也就是說,當(dāng)這些小紙帶聯(lián)手合作,它們就從單打獨斗變成了能共同搭建復(fù)雜結(jié)構(gòu)。
3、真正的智能,不是你設(shè)計,而是它“搭起來”
Blaise 的判斷非常直接:
這些復(fù)雜程序,沒有哪一條是我們?nèi)藢懗鰜淼摹?它們都是在沒有人管理、沒有說明書、沒有預(yù)設(shè)目標(biāo)的情況下,自己從混亂中摸索出來的。
你可以想象成:
一開始是零散的行為片段(像現(xiàn)在我們給模型的提示)
然后是“多個片段能組合在一起”,變成任務(wù)鏈條
最后,這些鏈條之間還能協(xié)同、互相適應(yīng),形成長期存在的結(jié)構(gòu)
這和今天的語言模型有什么關(guān)系?
當(dāng)語言模型能預(yù)測出一整段任務(wù)如何完成,并且能和你的行為協(xié)同配合時,它已經(jīng)不再只是"預(yù)測工具",而是具備了"結(jié)構(gòu)化智能"——不僅知道下一步做什么,還知道整個事情該怎么完成。
Blaise 的話說得再明白不過:
“你不會用花崗巖雕像說‘它很穩(wěn)定’。因為它再穩(wěn)定,也只能等著時間一點點侵蝕。但一個能復(fù)制自己的程序,就不一樣了。它可以持續(xù)存在,持續(xù)演化,持續(xù)適應(yīng)。”
這就是智能的另一種樣子:
不是死板執(zhí)行,而是靈活應(yīng)變;不是真懂你,而是邊試邊長。
第四節(jié)|AI 共生,是一種集體能力
到這里,我們已經(jīng)知道:
AI 不需要理解你,只要能穩(wěn)定預(yù)測,就能一步步完成任務(wù); 預(yù)測多了,就能組成結(jié)構(gòu),甚至形成"涌現(xiàn)"的智能體系。
但 Blaise 想說的,不止是"模型長出結(jié)構(gòu)"。 他在演講的后半段拋出更關(guān)鍵的問題:
我們是否愿意接受 AI 成為人類社會的一部分?
這句話的含義非常深。
不是"AI 替代人",也不是"人控制 AI", 而是——AI 已經(jīng)在參與協(xié)作、組成更大的智能網(wǎng)絡(luò)。
1、人類社會的底層,是協(xié)作智能
舉個例子:當(dāng)你坐飛機(jī),駕駛員、管制員、制造商、機(jī)場系統(tǒng),甚至天氣預(yù)報,都在共同作用。這就是一個超級大的智能協(xié)作網(wǎng)絡(luò)。
什么意思?
你以為是飛行員在飛,但其實是很多角色和工具在協(xié)同,人類只是其中一環(huán)。 每個人都掌握部分信息,大家共同承擔(dān)一個結(jié)果。
這種協(xié)同,早就是現(xiàn)代社會的運行基礎(chǔ)。
我們習(xí)慣了人與人之間的合作,現(xiàn)在要問的是:
“AI 能不能成為這個協(xié)作網(wǎng)絡(luò)中的一員?”
答案是:AI 現(xiàn)在就已經(jīng)是這個智能網(wǎng)絡(luò)的一部分。它在你手機(jī)里,在小紅書里,在抖音里。
“我們以為自己在控制這些工具,但其實它們早已介入我們的決策鏈、組織邏輯和社會結(jié)構(gòu)。”
這不是危言聳聽,而是現(xiàn)實。
你刷短視頻,推薦算法決定你看到什么;
你導(dǎo)航出行,路徑是模型算的;
你問 ChatGPT/DeepSeek 一句話,答案背后其實牽動著全球服務(wù)器、數(shù)據(jù)集與規(guī)則篩選。
Blaise 的觀點是: AI 不是一個外部工具,而是已經(jīng)參與了社會智能分工的角色。
2、問題不在技術(shù),而在我們怎么共存
所以問題來了—— 既然 AI 已經(jīng)在場,我們怎么安排它的位置?
關(guān)鍵問題是:我們能不能設(shè)定一個結(jié)構(gòu),讓 AI 像 GPS 一樣給人類提供穩(wěn)定的參考,而不是直接干預(yù)人類的主觀判斷?
兩個要點:
AI 要可預(yù)測、可校驗
就像GPS導(dǎo)航一樣,大多數(shù)時候給對路線,偶爾出錯時你能識別出來;
人類要保留決策權(quán)
人決定要去哪,AI 只負(fù)責(zé)建議路徑。
也就是說:AI 是集體智能的組成部分,但不應(yīng)掌控全局。
真正的智慧,不是 AI 有多強(qiáng),而是人類有沒有構(gòu)建一個清晰的協(xié)作架構(gòu),能讓 AI 靈活接入,同時確保權(quán)限可控。
3、最終要走向的,是協(xié)同演化
Blaise 在演講結(jié)尾說:
“人類并不是孤立的智能個體,我們一直都是群體智能的一部分。AI 的加入,并不是打破這個結(jié)構(gòu),而是繼續(xù)擴(kuò)大它。”
AI 不應(yīng)被看作外星人或者入侵者,而是新一代的協(xié)作者。
這要求我們重新設(shè)計工作方式、組織結(jié)構(gòu)、規(guī)則邊界—— 不是讓 AI 替你做完,而是讓它能與你配合,共同完成任務(wù)。
結(jié)語|AI 不理解你,但能與你共事
AI 不懂人類,也未必需要懂。
Blaise 一句話說得清楚:
它猜得準(zhǔn),不等于真的懂,但合作夠用了。
這是一次思維轉(zhuǎn)變:關(guān)注協(xié)作效果,而不是擬人程度。
今天的大模型,已經(jīng)能預(yù)測詞、預(yù)測路徑、預(yù)測操作。 當(dāng)這些預(yù)測夠穩(wěn)定,它就能:
協(xié)助你起草郵件、生成代碼、排查故障;
嵌入到流程里,自動處理大量重復(fù)事務(wù);
參與到更大的集體決策網(wǎng)絡(luò)中,承擔(dān)職責(zé)。
你需要轉(zhuǎn)變的問題:它能在哪一步,幫你"把事做完"?
用對它,才是你在這個技術(shù)周期中的真實優(yōu)勢。
本文由AI深度研究院出品,內(nèi)容整理翻譯自谷歌副總裁 Blaise Agüera y Arcas 在 TEDxCatawba 的演講。未經(jīng)授權(quán),不得轉(zhuǎn)載。
星標(biāo)公眾號, 點這里 1. 點擊右上角 2. 點擊"設(shè)為星標(biāo)" ← AI深度研究員 ? ← 設(shè)為星標(biāo)
參考資料:
https://www.youtube.com/watch?v=OD5UzhaDWfg&t=44s&ab_channel=TEDxTalks
https://www.noemamag.com/ai-is-evolving-and-changing-our-understanding-of-intelligence/
https://tedxcatawba.com/program?utm_source=chatgpt.com
https://research.google/blog/googles-next-generation-music-recognition/?utm_source=chatgpt.com
https://aclanthology.org/2023.acl-industry.60.pdf?utm_source=chatgpt.com
https://research.google/people/106776/?utm_source=chatgpt.com
來源:官方媒體/網(wǎng)絡(luò)新聞
排版:Atlas
編輯:深思
主編: 圖靈
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.