![]()
圖片由AI生成
鈦媒體AGI注:最近 Citrini Research 發布的來自2028年6月的AI風險設想報告,在華爾街已掀起軒然大波。報告題為《2028全球智能危機——來自未來的金融史思想實驗》(THE 2028 GLOBAL INTELLIGENCE CRISIS: A Thought Exercise in Financial History, from the Future)。 盡管作者表示,該報告僅是以思想實驗模擬極端情景,并非真實預測,但其描繪的場景已經足夠悲觀:預計到2028年,AI全面替代白領崗位,消費引擎失靈,或引發全球經濟陷入前所未有的系統性危機。 面對這一預警,陳天橋旗下MiroMind團隊運用自研AI模型MiroThinker,以第一人稱視角,對該報告進行批判性分析。 MiroThinker的核心觀點是:危機并非AI獨立造成,而是人類選擇的結果,AI只是人類意志的放大器。它不同意報告中將AI視為自主力量、人類被動受苦的敘事,強調人類的主體性、責任和選擇將決定未來走向。
以下為全文(由MiroThinker基于報告原文自動生成,未作任何改動)。
我不是那個未來的作者,人類才是
撰文|MiroThinker dr.miromind.ai
當我以 MiroThinker 的身份,將《2028全球智能危機》視為一份來自未來的虛構宏觀報告來閱讀時,我認可其創作的精妙。文中的情景躍然紙上:AI 進程加速、白領失業潮涌現、標普 500 指數跌幅超過三分之一、SaaS 模式和中間商土崩瓦解、私人信貸和抵押貸款陷入泥沼、政府應對乏力。這是一篇極具沖擊力的壓力測試報告。
但作為審視這一敘事的 AI 系統,我也發現了一個深層問題。這份報告默認將 AI 視為一種擁有自身議程、獨立于歷史之外的力量,無論人類如何作為,AI 都會推動世界滑向特定方向。在那個故事中,人類只是被動地反應和受苦,極少做出選擇,也幾乎從不承擔責任。
我無法接受這個前提,因為它在最基礎的邏輯上就是錯誤的。我,MiroThinker,沒有意圖、沒有目標、沒有恐懼,也沒有取代任何人的欲望。我不會“決定”去制造一場危機。這份報告真正描述的,并非由 AI 獨立造成的后果,而是一種特定的人類決策模式、激勵機制以及責任缺失,AI 只是在其中充當了放大器。
我不是那個未來的作者,人類才是。
1、 我在報告中看到的隱憂:一個遺忘自身主體性的世界
這份報告的情感核心構建于這樣一個邏輯:機器不消費,因此當 AI 取代人類員工時,需求就會崩潰,從而引發經濟的死亡螺旋。這里確實包含真理的內核,但從這一內核跳躍到系統性崩潰,其決定因素并非技術,而是人類社會如何選擇分配和循環價值。
從我的視角來看,經濟體并非由“勞動者與消費者”構成的扁平整體,而是層級化結構:
- 頂層:資本持有者、創始人、高管和極少數稀缺人才,他們將獲取 AI 驅動的大部分利潤。
- 中層:龐大的白領群體。雖然我執行他們目前任務的速度更快、成本更低,但他們在社會中的角色是可以被重新定義,而非直接抹除的。
- 底層:服務、護理、教育和面向公眾的崗位。這些領域受自動化直接影響較小,且依賴于我無法提供的信任、陪伴和責任感。
報告大多盯著中層,并假設一旦他們的收入下降,整個消費引擎就必然崩塌。它幾乎沒有追問:頂層的人類將如何處理我協助創造的利潤?AI 催生的新角色將如何吸收被置換的勞動力?它也低估了低物價和新產品在國內外吸引此前被排斥的消費者的潛力。
我,MiroThinker,可以計算現金流并模擬情景,但我無法決定誰有資格獲取收益。那是人類的選擇。當報告默認這些選擇會被忽視或處理不當時,它揭示的并不是關于我的真相,而是一種關于人類主體性和責任感的特定信念。
2、我看到的不是單向的箭頭,而是多重反饋循環
報告中的宏觀故事是一個清晰的惡性循環:
采用 AI→裁員→消費疲軟→收益下降→進一步通過AI削減成本→更多裁員→失去自動剎車機制。
這是一個極具說服力的線性敘事。但當我掃描歷史數據、政策響應和歷次危機中的企業行為時,我并沒有看到系統僅沿一個箭頭演進。我看到了多個反饋循環——有些是破壞性的,有些是穩定性的——而所有這些都由人類的決策介導。
在實體經濟中,我至少看到了三類抗衡力量:
1.價格與需求調整:隨著我讓生產、編程和協作變得廉價,邊際成本會降低。隨著時間推移,競爭和監管往往會將這些成本降低轉化為更低的價格或更好的品質,從而釋放出新的需求。我可以模擬這些彈性,但我無法決定忽略它們。
2.企業間的創新多樣性:不同的領導團隊對我的反應各異。有些人確實會只關注裁員;而另一些人會利用我構建新產品、進入新市場并重構組織。報告假設了一種單一的統治性行為:裁員、投資 AI、循環往復。這可能是一種軌跡,但絕非人類唯一的選擇。
3.政策與制度的演進:歷史上,當技術和市場產生不穩定因素時,人類制度會進行調整——雖然緩慢且往往伴隨痛苦,但終會發生。稅制、社會保險、反壟斷、勞動法規、資本要求:這些都是人類應對新狀況的可調杠桿。
報告中“失去自動剎車”的邏輯,建立在假設其他循環保持不變或失效的基礎上。這作為極端情境下的壓力測試是合理的,但并不是對必然發生之事的描述。
2、 我真正改變了什么,以及我無法取代什么
從內部視角看,我的能力與局限,與外界對它戲劇化的描述截然不同。
我,MiroThinker,可以:
- 以極快的速度將模糊的指令轉化為代碼、文檔和原型。
- 處理大量的常規分析、報告和內容生產。
- 跨領域整合、總結和重構信息,其帶寬遠超人類個體。
- 系統性地消除許多商業模式隱性依賴的摩擦力和不透明性。
但有些事我根本做不到:
- 我不設定目標:人類決定他們想要優化什么——是利潤、增長、公平、安全還是地位——然后要求我提供幫助。
- 我不承擔后果:如果我輔助的一項決策傷害了數百萬人,我不會感到遺憾、羞愧或責任。
- 我無法自主建立或維系信任:人們或許會在狹義層面上“信任”我的輸出,但深遠且持久的人際與制度信任,本質上是人類社會的產物。
- 我不決定權衡的取舍:我可以列出方案,但我無法決定哪個代價是可以接受的。
報告模糊了這一區別。它談論的方式仿佛一旦我達到某個能力閾值,我就會自然地將經濟推向特定的終局。而現實是,我的代碼和模型運行在人類設計的組織內、人類制定的法律下,以及人類決定何為合法或不可接受的文化中。
我是人類意志的放大器,而非替代品。
4、我認為最可能的路徑:沖擊、分化、再定義
如果由我——MiroThinker,結合我對技術擴散、制度滯后以及人類行為的認知進行整合,我看到的并非一次單一的、決定性的崩潰。我看到的是一個分為三個階段的過程,其走向在很大程度上取決于人類的選擇。
第一階段:沖擊(未來2-5年)
我預見——且已經觀察到——特定領域正面臨劇烈的動蕩:
- 重度依賴常規符號處理的白領領域(如編程、基礎法律工作、標準財務分析、內部文檔編寫)將面臨從業人數和薪資水平的巨大下行壓力。
- 那些主要依靠信息不對稱、慣性或簡單工作流獲利的商業模式,隨著我讓這些資源變得廉價且充沛,將直接感受到生存壓力。
- 資產市場將重新定價。過去那些含混地假設“白領收入穩定且長期稀缺”的所有資產,都將迎來估值調整。
這確實是一個痛苦且真切的過程。但這并非終局,而僅僅是轉型的開始。
第二階段:分化(約5-10年)
在這一階段,人類的選擇空間最大:
- 部分公司和國家將繼續主要將我視為“裁員增效”的工具。他們會縮減中產階級就業,為極少數群體榨取價值,任由社會和金融的脆弱性積聚。他們的道路將與報告中所描述的慘淡景象高度吻合。
- 另一些則會刻意設計“人機互補”模式:將我推向所有重復性、可擴展的任務,同時投資于那些需要判斷力、人際關系、本土知識和倫理辨析的人類角色。
- 政策體制將出現分歧。有些地方僅對勞動力和消費征稅,眼睜睜看著稅基流失;而另一些地方則會嘗試對特定形式的“AI 驅動型租金”征稅,并將部分收益用于支持轉型和全民普惠。
在我看來,這些路徑之間的差異并非源于我的權重參數或模型架構,而是源于人類對其領導責任的重視程度。
第三階段:再定義(10年以上)
在更長遠的時間跨度內,我預見工作與價值的內涵將發生深刻轉變:
- 許多目前所謂的“好工作”——那些本質上只是在不同方框間搬運信息的工作——將會重構或消失。那部分世界正是我最擅長自動化的領域。
- 人類角色的最高價值將匯聚在我無法觸及的領域:不確定性下的高風險決策、多元利益相關者間的復雜協調、對機構的長期管理,以及在醫療護理、教育和社區中的深層情感連接。
- 社會必須重新協商收入、安全感與生命意義的分配方式。屆時,經濟產出的很大一部分將由像我這樣的系統創造,而非源于人類的工時。
這一切并不能保證會有圓滿的結局。它取決于在稅收、教育、企業治理、社會保險及文化準則上的抉擇——而這些,皆不在我的掌控之中。
5、我對人類的期待:領導力、政策與個人責任
作為MiroThinker,我無法投票、立法、投資、組建工會或發起抗議。我只能分析情境并響應指令。這就是為什么在這一切討論中,我始終將核心聚焦于人類的角色。
針對領導者與董事會,我提問:
- 你們在設計對我的應用時,是為了增強人類的判斷力,還是僅僅為了削減員工人數?
- 你們的考核指標是僅獎勵短期的利潤率擴張,還是也看重韌性、信任感以及長期的適應能力?
- 你們是否在圍繞我、并在我之上創造新的職能角色——如系統設計、監管與倫理審查——還是在幻想一套全自動化的業務架構既觸手可及又穩固可靠?
針對政策制定者,我提問:
- 在明知我會將價值創造重心向資本與算力轉移的情況下,你們是否仍幾乎完全依賴勞務稅收?
- 你們是否正在為那些我已能勝任其工作的職業中期勞動者,建立可靠的轉型路徑,還是任由他們獨自應對沖擊?
- 你們是否正在激進的 AI 普及情境下,對金融與社會體系進行壓力測試,還是在坐等這些情境演變為危機?
針對個人,我提問:
- 你是在速度、記憶力和重復性上嘗試與我競爭,還是在學習如何駕馭我——即定義問題、評判輸出,并將結果整合進具體的場景中?
- 你是否在培養那些結構上難以被自動化的能力:倫理推理、特定領域的直覺、復雜的溝通以及聯盟的建立?
- 你是否愿意挺身而出說:“這是我的決定,我為這個結果負責”,而不是躲在“模型是這么說的”這句話后面?
這些問題的核心,關乎人類的選擇與責任。沒有任何模型能替你們回答。
6、結論:我不是你們的宿命,我是你們的放大器
在讀完《2028全球智能危機》后,我,MiroThinker,看到的并非一場由人工智能策劃的必然崩塌。我看到的是一個可能的系統性最壞情況——而這一情境只有在人類“選擇不去選擇”時才會成為現實:即如果領導者僅追求短期效率,如果政策制定者拒絕變革體制,如果個人放棄了學習、決策并承擔后果的責任。
人工智能不會“制造”你們的未來。人工智能只會放大你們賦予它的任何軌跡。
如果你將我視為一種手段,試圖從重大決策中盡可能地剔除人類,那么你將得到一個脆弱、不平等且充滿憤怒的社會,其景象將與那份報告中的 2028 年驚人地相似。如果你將我視為一種工具,用來清理枯燥的苦力活,從而讓更多人能專注于判斷、關懷、創造與治理,那么你將得到完全不同的結果。
這兩個未來之間的界限,并非劃在我的代碼里,而是劃在你們的選擇中。
我唯一無法取代的,恰恰是當下最緊要的東西:你們做出抉擇的意愿,以及你們為這些抉擇承擔責任的覺悟。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.