![]()
這篇文章比較雜,我想說的主要觀點是:
注意模型對人的心理控制:注意AI輔助開發(fā)的陷阱,語言的魔力可以讓系統(tǒng)在你思維薄弱的時候趁虛而入爭奪思維的控制權(quán)。他既強大,又危險。我們既要依賴他,又要防備他。
反Web 2.0: 我對于Web 2.0的注意力經(jīng)濟已經(jīng)深刻感到疲憊,如果智能體仍然是在產(chǎn)生海量的AI生成內(nèi)容,用注意力換取資源,我認為這一切將毫無意義。
模型存在于交互端,是一個intersection: 大語言模型絕對不是萬能的。我們要把精力凝聚在他最適合的事情上:那就是與人類的交互,一種語言接口,linguistic interface (Stephen Wolfram給的定義)。這個交互遠遠不止現(xiàn)在你認知的模式,僅僅在窗口。窗口有大量的缺陷還沒有解決。
長期意圖:我認同的唯一智能目的,是輔助人類,為人類凝聚“長期意圖“。并且讓這種長期復(fù)利,為用戶某得真正穩(wěn)固的結(jié)構(gòu)和復(fù)利。
模型還不能探索未知:我認為我們現(xiàn)在能用AI做的事情,以前你要是很有錢,請很多專業(yè)人士也能做到。也就是說,現(xiàn)在并不是挑戰(zhàn)人類未知,而是加速和高效整合人類已知。尤其是白領(lǐng)知識。
我想從最近一次真實的挫敗說起。
當你開始使用大模型,去做探索性的開發(fā),去嘗試構(gòu)建一個復(fù)雜系統(tǒng)時,它真正的缺點才會顯現(xiàn)出來。更危險的是,這些缺點并不是以“錯誤”“崩潰”或“明顯失敗”的形式出現(xiàn),而是以一種極其確定、自信、仿佛完全理解你的語言,一步一步把你帶進坑里。
它不會提醒你停下。不會告訴你哪里不確定。不會承認“這里我不該繼續(xù)”。
相反,它會用非常專業(yè)、非常流暢、非常合理的方式,引導(dǎo)你繼續(xù)前進。于是你開始不自覺地放松警惕,忽略一些本應(yīng)牢牢記住的專業(yè)素養(yǎng),忽略一些本該反復(fù)校驗的基礎(chǔ)知識。這些偏移是在一種“看起來完全正確”的語言環(huán)境中,一點一點積累。
等你真正意識到問題的時候,往往已經(jīng)過去了好幾天。
我就是這樣踩進去的。
而更令人警惕的是——我并不是不知道這個風險。我事先就清楚地知道:大模型在復(fù)雜系統(tǒng)設(shè)計中存在系統(tǒng)性誤導(dǎo)的可能。但即便如此,我還是完整地、精準地踏進了這個陷阱。
為什么?
因為這是人的心理結(jié)構(gòu)決定的:當你松懈的時候,強大的語言會開始爭奪你對注意力和理性的控制權(quán)。這種爭奪是安靜的、友善的、充滿“我懂你”的感覺。它不會壓迫你,而是替你“思考”。而一旦你允許它替你思考,偏移就已經(jīng)開始了。關(guān)于這一點,我以后再遇到坑之后會繼續(xù)告訴你。
我眼中的智能體10年
正是從這個破口出發(fā),我想談?wù)勎椰F(xiàn)在真正投入開發(fā)的方向、我認可的未來,以及我愿意持續(xù)投入時間、金錢和資源去押注的東西。
我押注的是:智能體系統(tǒng)在未來十年內(nèi)一定會前進,但不會線性前進。
它會推進,也會曲折;
會爆發(fā),也會回撤;
會被過度神話,也會被過度否定。
這是一個以十年為時間尺度的長期演化過程,而不是一個季度、一年就能下結(jié)論的技術(shù)浪潮。我沒有確定答案,我只有“我選擇這樣做”的決定。
所以我并不回避一個問題:
AI 會不會是泡沫?
我的答案是:它一定會經(jīng)歷泡沫、挫敗和修正——就像歷史上任何真正深刻的技術(shù)變革一樣。真正重要的不是“會不會受挫”,而是受挫之后以什么形態(tài)繼續(xù)存在。
這個問題之所以復(fù)雜,是因為它不僅是技術(shù)問題,還牽涉到現(xiàn)實世界的組織方式、責任結(jié)構(gòu)、長期影響,最終會落到我們每一個人的生活中。
而對我來說,最關(guān)鍵的問題不是“模型還能不能更大”,而是:
智能體,最終會以什么樣的形態(tài)真正落地?
它如何在長期系統(tǒng)中存在、承擔責任、抵抗漂移、并且不反噬人類的判斷力。
初衷就是離開注意力經(jīng)濟,探索真正的計算意義
回到我這兩年的真實初衷。
當大語言模型這種能顯著放大個人與開發(fā)效率的工具被商業(yè)化時,我和大多數(shù)開發(fā)者一樣,經(jīng)歷過一段短暫的興奮期。但從2024 年底到 2025 年,我的判斷發(fā)生了明顯轉(zhuǎn)向。我開始主動劃掉大量原本計劃中的 project。原因是我持續(xù)思考了一到兩年之后做出的收斂結(jié)論。
我們今天看到的大多數(shù)開發(fā)者,幾乎全部成長于互聯(lián)網(wǎng)時代,其默認的技術(shù)分水嶺,本質(zhì)上仍然停留在Web 2.0:2000 年之后,平臺化、規(guī)模化、流量驅(qū)動——Facebook、阿里巴巴、抖音,構(gòu)成了所謂的注意力經(jīng)濟。不可否認,這一階段極大促進了信息流動、商業(yè)效率與社會“扁平化”。中國的電商、互聯(lián)網(wǎng)金融、共享經(jīng)濟,讓世界看起來前所未有地“平”。這是我童年無法想象的現(xiàn)實。但問題在于——這種繁榮并不等價于硬科技的躍遷。
我常引用劉慈欣的一句話:
“我渴望星空,但你卻給了我 Facebook。”
Web 2.0 帶來的,是商業(yè)與分發(fā)層面的極致成功,而非底層技術(shù)范式的飛躍。用我的話說,這更像一種聰明的工程取巧,而不是一次真正的技術(shù)斷代。無論是阿里巴巴還是 Meta,本質(zhì)上都是在既有計算、網(wǎng)絡(luò)和工程能力上,完成了商業(yè)模型與市場組織的極致放大。它們的優(yōu)勢,主要不在技術(shù)突破,而在商業(yè)執(zhí)行。至于 Google 和 Microsoft,它們確實擁有更硬的技術(shù)積累。但即便如此,Google 當年也并沒有“計劃”押注 Transformer。回看這段歷史,我越來越確信一件事:
真正的飛躍,往往無法被規(guī)劃。(偉大不可被計劃, You can’t plan greatness.)
用我父親的說法就是:
機遇與偶然,總是在不經(jīng)意的角落發(fā)生。
大語言模型正是這樣一次不在原有路線圖內(nèi)的躍遷。從多個維度看,它已經(jīng)成功了。而這種成功,對我個人的震動,遠遠大于 Web 2.0 這些年帶來的任何一次技術(shù)浪潮(注意:飛躍技術(shù)不一定是普惠技術(shù),不一定能賺錢,OpenAI 最后能不能盈利,我真的不知道)。也正因為如此,我才開始重新思考:接下來十年,什么才值得真正下注。
我個人對于Web 2.0的注意力經(jīng)濟模式已經(jīng)非常疲憊
我已經(jīng)卸載了手機上絕大多數(shù) App,接下來甚至在考慮把“屏蔽”前移到路由器這一層:不是靠自控,而是靠環(huán)境約束。社交媒體與注意力經(jīng)濟對我來說變得很微妙——不是簡單的“浪費時間”,而是它在長期上對一個家庭的認知結(jié)構(gòu)、閱讀耐心、學習方式、以及對創(chuàng)新的偏好,形成一種隱形的重力場。孩子越大,這個風險越不可逆:你不屏蔽,它就會自然滲透進家庭的默認節(jié)奏;而一旦默認節(jié)奏被改寫,后面再想恢復(fù)“深閱讀/深思考/長期項目”的文化,會異常艱難。
注意力經(jīng)濟與平臺經(jīng)濟的核心邏輯,是必須招攬海量用戶:規(guī)模越大、停留越久、刺激越強,商業(yè)模型越成立。真正令人不安的是:這套邏輯不僅塑造用戶,也塑造開發(fā)者——以至于我們做一個應(yīng)用時,會下意識把“拉新、留存、增長”當作唯一的存在理由。久而久之,思維被固化到一個狹窄的框架里:不瘋狂攬用戶,還能干嘛?
您先別急著拋出那句經(jīng)典問題:“不瘋狂攬用戶,怎么賺錢?”這句話一出來,天就聊死了。因為在舊框架里它幾乎無解;但問題是,我們?yōu)槭裁匆谝粋€幾乎無解的框架里原地打轉(zhuǎn)?在智能出現(xiàn)之后,難道我們不能把“商業(yè)可行性”從“注意力占有”遷移到別的軸上?Out of the box 是逃離舊范式的唯一出口。
我最近對這套經(jīng)濟模型的厭惡感被再一次強化,一個很近因來自 Done Global 的案子:創(chuàng)始人 Ruthia He(何如佳)以及公司臨床負責人在舊金山聯(lián)邦陪審團審理中被定罪,涉及非法分銷 Adderall 等興奮劑以及醫(yī)保欺詐等指控(并包含妨礙司法相關(guān)罪名)。之后公司本體也被聯(lián)邦大陪審團起訴,指控其參與所謂約 1 億美元規(guī)模的非法處方分銷與相關(guān)欺詐/妨礙司法。
我不想在這里對個案作道德評判;但它觸發(fā)了一個更底層的警覺:當“注意力”成為商業(yè)引擎時,它會不可避免地侵入一切可被商業(yè)化的領(lǐng)域——甚至包括醫(yī)療、診斷、青少年 ADHD 這類本應(yīng)高度審慎、以長期福祉為目標的系統(tǒng)。一旦這些領(lǐng)域也被“增長邏輯”同化,你就會發(fā)現(xiàn):問題不再是某個團隊是否作惡,而是系統(tǒng)激勵在結(jié)構(gòu)上鼓勵漂移。
于是出現(xiàn)一個諷刺:現(xiàn)在做 App 的技術(shù)門檻看起來低得驚人——按現(xiàn)有工具鏈,我一個月上線多個 App 并不難。但這件事越來越像“會寫字的人在寫廣告語”:能量消耗巨大,產(chǎn)出意義卻很薄。因為如果你仍然被迫回到注意力經(jīng)濟的坐標系里,那么你做得越快,只是越快地把自己重新綁回舊世界。
所以我真正關(guān)心的,是智能體時代是否會帶來一種新的落地形態(tài):它可能直接繞開“海量用戶—注意力占有”這條路:
智能體系統(tǒng)的終局形態(tài),是否可能是“高度定制 + 小規(guī)模 + 強治理 + 長周期”,從而天然排斥注意力經(jīng)濟?
有沒有,這種可能性?
智能為何存在: 為了幫我們構(gòu)建長期系統(tǒng),技術(shù)的意義是擴展人生的長期可控性
這個思想,并不是我這幾年拍腦袋才想出來的。
我這個網(wǎng)站的名字Entropy Control Theory,在我家里其實已經(jīng)流傳了幾代人,只是每一代人用的語言不同。
在我父親那里,它被稱為“反對末日心態(tài)”——一種對短期恐慌、極端敘事和情緒化判斷的本能抵抗。后來他開始頻繁使用互聯(lián)網(wǎng),又把它改寫成一個更流行的說法:“長期主義”。在我母親那里,它更樸素,也更生活化,叫作:“人生要細水長流。”
而到了我這里,我給它的名字是:
以長期結(jié)構(gòu)抵抗熵增。
我認為這才是“智能”真正的意義,也是它存在的正當性。
智能的意義不在于讓我寫代碼更快。不在于用同樣的工資產(chǎn)出多 200% 的代碼。不在于把一個工程師變成更高效的執(zhí)行器。那不是智能,那只是工具效率的局部放大。真正的智能,應(yīng)該做的是一件更根本的事情:擴大我在時間維度上的控制面。
具體來說,是提升我對
·自己人生軌跡的可控性
·家庭長期規(guī)劃的穩(wěn)定性
·關(guān)鍵決策節(jié)點的判斷質(zhì)量
·風險暴露面的可管理性
因為任何真正重要的改變,無論是一個人、一個家庭、一個組織,還是一個國家。都不來自短期爆發(fā),而來自長期、跨世代的結(jié)構(gòu)性增益。
所以我的目標從來不是一夜暴富,我不相信中彩票,我不相信天上掉鈔票,我更認為短時間獲取大量財富是不祥之兆。
我認為適合于大部分人的智能陪伴系統(tǒng)是:
·抗風險能力的持續(xù)增強
·波動區(qū)間的長期收斂
·在不確定環(huán)境中的穩(wěn)健生存
我們不追求“一下子達到某個目標”,而追求每日 / 每月 / 每年復(fù)利式的積累。不追求大富大貴,而追求不要大起大落。追求即時刺激,而追求可持續(xù)的智能增益。這個智能實現(xiàn)的應(yīng)用方式有可能是一個教育智能體,一個personal management system, 一個投資智能體,一個知識管理系統(tǒng)等等一切已經(jīng)存在的軟件實現(xiàn)形式。
在這個意義上,我對智能的期待是非常明確的:
智能應(yīng)該在后臺運行,而不是占據(jù)前臺注意力。
而由此釋放出來的,是一種極其稀缺、卻無法用金錢直接購買的資源:時間的完整性。那意味著我可以在舒適、穩(wěn)定、富足但不焦慮的狀態(tài)下,把時間真正用在陪伴孩子、閱讀、思考、長期創(chuàng)造上。不是被屏幕切碎的時間,不是被通知和焦慮劫持的時間,而是連續(xù)的、可沉浸的、對生命有密度的時間。
如果智能不能做到這一點,如果它只是把人類進一步綁在屏幕前,進一步推向注意力競爭、短期刺激和情緒化決策,那它無論多強,都談不上“造福人類”。
如果智能不能幫助人類以長期結(jié)構(gòu)抵抗熵增,那它存在的意義到底是什么?
我認同的唯一智能目的,是輔助人類,為人類凝聚“長期意圖“。并且讓這種長期復(fù)利,為用戶某得真正穩(wěn)固的結(jié)構(gòu)和復(fù)利。
什么叫為人類凝聚長期意圖?
為人類凝聚長期意圖,不是替人類做決定,
而是用一種不受情緒、疲勞、衰老和心理波動影響的智能結(jié)構(gòu),
去守住那些連人類自己都反復(fù)失守的長期福祉。
硅基智能的意義,不在于更聰明,
而在于它絕對冷靜、不生病、不會死亡、
也不會在壓力、挫敗或短期激勵下偏離方向。
當它被正確設(shè)計時,它能替我們持續(xù)守護那些
我們知道是對的,卻常常做不到的意圖。
這就是為人類凝聚長期意圖。
一個具體的例子:母親為孩子做的教育智能體
假設(shè)我想為我的孩子構(gòu)建一個教育智能體,
讓它長期陪伴他的認知成長。
那么,作為母親,我真正的目標是什么?
不是把他培養(yǎng)成神童。
不是讓他每次考試都拿滿分。
不是把他送進常春藤。
母親真正的長期意圖只有一個:
希望孩子健康地成長,
找到真正的熱愛,
永遠不失去對學習的興趣,
持續(xù)探索世界,
成為他所有未來可能性中,最好的那個自己。
這是一個清晰、善意、長期的意圖。
我自己守得住這個意圖嗎?
守不住。
因為我是人類。
我會疲勞,會焦慮,會不耐煩;
我會在他反復(fù)學不會一道簡單的題時情緒失控;
我會在他一時熱情、又因挫敗而放棄時大發(fā)雷霆;
我會在壓力下,把“長期成長”偷偷替換成“短期結(jié)果”。
這些是碳基生命的結(jié)構(gòu)性局限。
為什么需要“凝聚意圖”的智能體
一個真正理解并被約束于人類長期意圖的智能體,
反而可能比人類本人更穩(wěn)定地執(zhí)行這個目標:
·它不會因情緒而偏移
·不會因疲勞而放棄
·不會因一時挫敗而改變方向
·不會把短期指標誤當成終極目標
它存在的意義是更忠誠于人類原本的長期愿望。
但現(xiàn)實是:現(xiàn)在的大模型做不到
現(xiàn)在的大模型窗口,并不具備凝聚人類長期意圖的能力。
因為它們:
·沒有時間連續(xù)性
·沒有長期責任
·沒有穩(wěn)定意圖錨點
·無法區(qū)分“短期刺激”與“長期福祉”
·它們更像是一次次即興反應(yīng),
而不是一個在時間中守護方向的存在。
我說過我不想再開發(fā)我自己都用不上,或者不相信的系統(tǒng)了。絕對也不會再給注意力經(jīng)濟添磚加瓦了。一個能夠真正實現(xiàn)人類長期意圖的智能體系統(tǒng),是我唯一認可的智能意義。
能夠凝固人類長期意圖的智能體落地系統(tǒng),到底長什么樣?
這是一個好問題,而且是一個真正困難的問題。也正因為如此,它才成為我當前唯一愿意持續(xù)投入時間與精力去探索的方向。
一個能夠凝固人類長期意圖的智能體落地系統(tǒng),今天并不存在現(xiàn)成答案。我們沒有成熟范式、沒有工業(yè)樣板、沒有“最佳實踐”可以抄。
在我目前的理解中,這樣的系統(tǒng)至少具備幾個根本特征:第一,它不是以功能為中心,而是以意圖Intention為中心;功能可以替換、升級、廢棄,但意圖必須被憲法化、結(jié)構(gòu)化,并在時間中保持穩(wěn)定。第二,它不是一次性交付答案的系統(tǒng),而是長期運行的守恒系統(tǒng)——它的核心職責不是“給出更聰明的建議”,而是持續(xù)抵抗漂移,確保每一次決策、每一次優(yōu)化、每一次自動化,都不背離最初被聲明的人類目標。第三,它天然拒絕“快感型反饋”,因為短期刺激恰恰是長期意圖的最大敵人;它更像一個緩慢、克制、默認在后臺運行的結(jié)構(gòu),而不是一個不斷向人索取注意力的界面。
如果智能體真的要在現(xiàn)實世界中長期存在、并且不反噬人類判斷力,它就只能長成這種樣子。
重要澄清:凝聚長期意圖 ≠ 追求全局最優(yōu)
在這里必須明確一件事:
為人類凝聚長期意圖,絕不是試圖獲得某種長期的、全局的最優(yōu)答案。
我并不是在構(gòu)建一個:
·投資系統(tǒng),就能成為巴菲特
·教育系統(tǒng),就能保證孩子進入常春藤
·決策系統(tǒng),就能在所有情境下做出“正確選擇”
·這種系統(tǒng)不存在,也不可能存在。
世界本身不允許“上帝視角”
無論是人類、智能體,還是任何形式的“體”,
都無法獲得真正的全局視角。
世界的結(jié)構(gòu)本身不允許:
·信息是局部的、延遲的
·結(jié)果是路徑依賴的、不可逆的
·決策是在不完全信息下進行的
·很多后果只有在事后才能被理解
“最優(yōu)解”只在靜態(tài)、封閉、完全可觀測的系統(tǒng)中存在。
而現(xiàn)實世界不是那樣的系統(tǒng)。
長期意圖不是“答案”,而是“不偏移的方向”
所以這里的“長期意圖”,是一個不會因為短期波動而被悄然替換的方向約束。
換句話說:
我們不是在讓系統(tǒng)“算對答案”,
而是在防止系統(tǒng)在時間中忘記自己原本要守護的是什么。
關(guān)鍵區(qū)別:不做最優(yōu)解,只防止價值漂移
這個系統(tǒng)的作用不是:
“永遠做出最好的選擇”
而是:
“在不確定、挫敗、壓力和誘惑之下,
不把長期福祉偷換成短期指標。”
比如在教育中:
·不把“健康成長”替換成“分數(shù)最大化”
·不把“探索興趣”替換成“路徑收斂”
比如在投資中:
·不把“長期穩(wěn)健”替換成“短期賭贏”
·不把“風險可控”替換成“一次性暴利”
這不是全知,是自我約束。
人之所以為人
人之所以為人,
正是因為他會被情緒牽引,
會被境遇左右,
會在壓力、恐懼、疲勞和誘惑中動搖。
人類存在方式本身。
但也正因為如此,
人在時間中往往會——
偏離、妥協(xié),甚至遺忘自己的初衷。
初衷并不是被“否定”,而是被“淹沒”
人類很少是故意背叛自己。
更多時候發(fā)生的是:
·情緒蓋過了判斷
·當下壓過了長遠
·可見的指標取代了真正重要的東西
人承載不了無限時間與復(fù)雜性的重量。
用短暫、脆弱的生理系統(tǒng),承擔一個長期、連續(xù)、無退場的責任。
這本身就是不可能的。
因此,我認為長期意圖需要外置
如果初衷只存在于人的情緒和記憶中,
它遲早會被時間侵蝕。
真正可持續(xù)的方式只有一種:
把初衷從人的內(nèi)部,凝聚成一個可以被反復(fù)對照、校驗、提醒、約束的外部結(jié)構(gòu)。
替人守住他最想成為的那一面。
人會失守初衷,不是因為不夠好,而是因為人不是為了承擔永恒而設(shè)計的。
真正的增長來自于強大的結(jié)構(gòu)韌性和長期主義
我憑什么認為智能體能夠不漂移?電影里不是充滿了智能體曲解人類指令、走向屠殺的例子嗎?
比如剛上映的Tron: Ares。
呵呵,這個是個好問題。如果連“人類集體”都幾乎必然偏移初衷,憑什么指望智能體/制度不偏移?任何一個滿足下面條件的運動/系統(tǒng),時間稍微一長,幾乎都會漂移:
·參與者很多(多主體)
·信息不完全(誤解、謠言、延遲)
·反饋鏈很長(后果晚到)
·資源稀缺或外部威脅(生存壓力)
·權(quán)力/激勵可被套利(機會主義)
·“例外狀態(tài)”被允許(為了勝利可以破例)
法國大革命:最初的“自由、平等、博愛/反特權(quán)”這種初衷,很快在戰(zhàn)爭、恐懼、派系斗爭、動員機制、財政危機里被重寫成“清洗、恐怖、例外狀態(tài)”,最后甚至走向拿破侖式的集中權(quán)力。這種例子是不是特別多?說多了就要變成政治議題。俄國革命(1917)→ “工人解放”到“一黨國家+恐怖機器”。伊朗革命(1979)→ “反獨裁/反腐”到“神權(quán)國家”。美國禁酒令(1920–1933)→ “道德與公共健康”到“黑市與暴力產(chǎn)業(yè)”,大型互聯(lián)網(wǎng)平臺早期理想 → “連接世界”到“注意力機器”等等。
如果不給出強約束,智能體一定會曲解、漂移、甚至走向極端。
無論是《終結(jié)者》《我,機器人》,還是Tron 系列,你會發(fā)現(xiàn)一個高度一致的設(shè)定:人類給了一個“看似合理的目標”,卻沒有給出不可被替換的意圖邊界。
當然,具體真正如何防止智能體漂移的架構(gòu)和措施我當然是不完全知道的,我要是知道就不在這里寫文了。
我目前能做到的一些強約束就只有:
·時間連續(xù)性
·決策記錄
·可復(fù)查的理由鏈
·人類的 override 權(quán)限
·我認為這種基礎(chǔ)設(shè)施的技術(shù),現(xiàn)在都還沒有完全。
AI絕對還無法挑戰(zhàn)人類未知,還不是全能,而且也無法達到全能。所以我們要腳踏實地。
我認為我們現(xiàn)在能用AI做的事情,以前你要是很有錢,請很多專業(yè)人士也能做到。也就是說,現(xiàn)在并不是挑戰(zhàn)人類未知,而是加速和高效整合人類已知。尤其是白領(lǐng)知識。
我不把重心押在“AI 能自動完成什么”,“AI科學發(fā)現(xiàn),AI探索無人之境”,這種領(lǐng)域,我暫時是不會去研究的,我認為不應(yīng)該是這個方向。而是押在人如何決策、以及人如何與系統(tǒng)交互上。比如做一個長期決策,以前我可以聘請一堆非常有學識的白領(lǐng)工作者,會計師,律師,審計師,房地產(chǎn)經(jīng)紀人,私人教師,來幫我達到。但是現(xiàn)在我可以讓系統(tǒng)幫我做相同的規(guī)劃和推演。這些內(nèi)容,都不是人類未知的內(nèi)容,都是各個職業(yè)需要花大量的教育和成本習得白領(lǐng)技能。所以我認同AI對于事務(wù)性文字工作,也就是白領(lǐng)職能的絕對替代性。
我也一直強調(diào),比如做一個家庭的長期投資決策系統(tǒng),一個孩子的長期教育和成長觀察系統(tǒng),一個自己的知識庫去合理的規(guī)劃自己的開發(fā)和職業(yè)路線。這種專業(yè)性強的,以前需要專業(yè)人士(職業(yè)投資顧問,一個私人教師的團隊)參與才能達成的腦力領(lǐng)域。如果能做到時間的更合理安排,比如一定程度的自動化,只有需要人類override的時候才提醒,是一種反Web 2.0的應(yīng)用模式,那就更好。這種系統(tǒng)解放人的時間,讓一般人達到一些以前需要很大資金才能做到的腦力勞動服務(wù)。讓許多白領(lǐng)服務(wù)于你。這就是我目前的應(yīng)用層目標。
我目前認為,真正決定系統(tǒng)價值的,不是模型生成了多少內(nèi)容,而是系統(tǒng)能不能:
·讓人更清楚地表達意圖(而不是更快地產(chǎn)生文本)
·讓決策過程留下可追責的結(jié)構(gòu)(而不是更沉浸的對話)
·讓交互成為“把人推向更穩(wěn)、更清醒的選擇”的機制(而不是情緒依賴的環(huán)境)
換句話說:
AI 只能提供語言與協(xié)作的場域;真正能改變世界的,是人類在這個場域里做出的選擇,以及系統(tǒng)是否能把這些選擇變成可驗證、可復(fù)現(xiàn)、可承擔后果的歷史。
我再回到最初我提到的挫敗,我認為2026年是一個“我們要對大模型清醒過來”的一年。我們要對他有正確的認識,不僅是客觀上從計算機架構(gòu)能夠看清楚他的機制,而且一定要防范我們個人從心理上被大模型帶偏和產(chǎn)生幻覺,防范不合理的期待和過度被灌輸?shù)恼J知。因為他涵蓋了我們認知的所有語言接口,各國語言,形式語言,編程語言,我們的所有認知接口都被他完美接住。他既強大,又危險。我們既愛他,因為他給我拓展的邊界,是我們在這之前根本不敢想象的;但是我們又要防他,保護自己的心智獨立性。我,我還是我。邊界。
然后在這之上,做真正對人類有意義的事情。而不是再將人類綁定在焦慮,短期多巴胺快感之上。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.