![]()
剛剛Andrej Karpathy分享了他關于AI如何影響經濟的最新思考。
他認為,人們習慣于將AI與電力、工業革命等歷史先例進行類比,但最恰當的類比,是將AI視為一種全新的計算范式——即他之前提出的“軟件2.0”。因為無論是傳統計算還是AI,其本質都是關于數字信息處理的自動化
基于此,Karpathy提出了一個預測AI自動化能力的核心指標:「可驗證性」(Verifiability)。
回望1980年代:軟件1.0自動化的是「可指定」任務
Karpathy首先回顧了傳統計算對就業市場的影響。
如果回到1980年代來預測計算機的影響,最關鍵的預測指標是看一項任務或工作的算法在多大程度上是“固定的”。也就是說,執行者是否只是在根據一套可以輕松指定的、死記硬背的規則,機械地轉換信息。
例如打字、簿記、人力計算器等工作,都屬于這一類。在那個時代,當時的計算能力只允許我們(通過手動編碼)編寫出這類程序。這就是軟件1.0的時代。
AI新范式:軟件2.0自動化的是「可驗證」任務
現在,AI讓我們能夠編寫出過去完全無法手動編寫的新程序。
我們實現這一點的方式,不再是編寫固定的規則,而是通過指定一個目標(例如,分類準確率、獎勵函數),然后通過梯度下降等方法在巨大的程序空間中進行搜索,最終找到一個能夠很好地達成該目標的神經網絡。這就是軟件2.0的核心思想。
在這個新的編程范式下,最具預測性的新指標變成了「可驗證性」。
如果一項任務或工作是可驗證的,那么它就可以通過直接優化或強化學習進行訓練,讓神經網絡在該任務上表現得極其出色。這里的關鍵在于,AI在多大程度上可以“練習”某件事。
一個可供AI練習的環境,必須滿足三個條件:
1. 可重置(Resettable): 可以開始一次新的嘗試。
2. 高效率(Efficient): 可以在短時間內進行大量嘗試。
3. 可獎勵(Rewardable): 有一個自動化的流程來評估并獎勵任何一次具體的嘗試。
一項任務或工作的可驗證性越高,它就越容易被新的AI編程范式所自動化。
如果一項任務不具備可驗證性,那么對它的自動化就只能依賴于神經網絡“泛化能力的魔法”,或者通過模仿學習等效果較弱的方式來實現。
Karpathy指出,這正是導致大語言模型(LLM)進展呈現出“鋸齒狀”前沿的根本原因
那些可驗證性強的任務,正在取得飛速進展,其能力甚至可能超越頂尖的人類專家。例如:
1.數學
2.編程
3.任何看起來像有標準答案的謎題
與此同時,許多其他任務的進展則相對滯后,例如:
1.創造性工作
2.戰略性任務
3.需要結合真實世界知識、狀態、背景和常識的復雜任務
最后,用一個精煉的總結就是:
軟件1.0輕松自動化了那些「可指定」的任務
軟件2.0則將輕松自動化那些「可驗證」的任務
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.