![]()
畫面中可以看到機械手正在鍵盤上打字。 ? maxuser (Shutterstock)
作者:AJ·德林格
目前大多數廣泛應用的人工智能模型背后的底層技術是大型語言模型(LLM),這是一種機器學習和語言處理技術。大多數人工智能公司都押注,如果輸入足夠的數據,LLM 將能夠實現近乎完全的自主思考和行動,其方式與人類類似,甚至擁有更豐富的集體知識。然而,事實證明,押注無限增長的概率并不高。一項新的研究聲稱已通過數學證明表明,“LLM 無法執行超出一定復雜程度的計算和智能任務”。
這篇由父子研究員維沙爾·西卡 (Vishal Sikka) 和瓦林·西卡 (Varin Sikka) 發表的論文,最初發表時并未引起太多關注,最近才被《連線》雜志報道。論文的結論雖然相當簡單,但推導過程卻運用了不少復雜的數學知識。簡而言之,論文指出,某些提示或任務需要比邏輯學習模型 (LLM) 處理能力更復雜的計算,在這種情況下,模型要么無法完成請求的操作,要么會錯誤地執行任務。
這項研究的基本前提實際上給“能夠完全自主完成多步驟任務而無需人工監督的智能體人工智能將成為實現通用人工智能的途徑”這一觀點潑了一盆冷水。這并非否認這項技術的功能或未來發展潛力,而是指出其可能性遠低于人工智能公司在宣傳“天空才是極限”時所宣稱的上限。
研究人員并非第一個指出邏輯邏輯模型(LLM)可能名不副實的人,但他們的研究確實用數學方法論證了許多人工智能懷疑論者的觀點。去年,蘋果公司的研究人員發表了一篇論文,得出結論:盡管邏輯邏輯模型看起來似乎能夠推理或思考,但實際上它們并不具備這種能力。認知共振公司(Cognitive Resonance)的創始人本杰明·萊利(Benjamin Riley)去年也撰文指出,由于邏輯邏輯模型的工作原理,它們永遠無法真正達到我們所理解的“智能”水平。其他一些研究也測試了基于邏輯邏輯模型的人工智能模型的極限,以檢驗它們是否能夠產生新穎的創意成果,但結果卻令人失望。
但如果以上論述都無法說服你,而你更喜歡復雜的數學公式,那么西卡斯夫婦的研究或許正是你需要的證據。所有這些都表明,無論人工智能以目前的形式具備怎樣的能力,它幾乎肯定不會像埃隆·馬斯克最近聲稱的那樣,在今年年底前超越人類智能。
閱讀最新前沿科技趨勢報告,請訪問歐米伽研究所的“未來知識庫”
https://wx.zsxq.com/group/454854145828
![]()
未來知識庫是“ 歐米伽 未來研究所”建立的在線知識庫平臺,收藏的資料范圍包括人工智能、腦科學、互聯網、超級智能,數智大腦、能源、軍事、經濟、人類風險等等領域的前沿進展與未來趨勢。目前擁有超過8000篇重要資料。每周更新不少于100篇世界范圍最新研究資料。 歡迎掃描二維碼或訪問https://wx.zsxq.com/group/454854145828進入。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.