AI會產生自我意識,從而威脅人類嗎?從《終結者》中試圖滅絕人類的“天網”,到《碟中諜7》中無所不能的“智體”,科幻作品一直在為我們描繪一種最深刻的恐懼:一個擁有自我意識,并最終背叛人類的超級人工智能。這樣的未來真的會出現嗎?給出了否定的觀點,即使在理論上有可能性,但對人類的最大威脅不是來自AI自主背叛,而是來自人類對AI的濫用。我認為:AI不會誕生自主意識,因為其所有行為都受限于一個由人類設定的、外在的目標函數。
要理解這一點,我們必須明確AI是如何“學習”的。無論是監督學習、無監督學習,還是強化學習,所有AI模型的訓練過程,本質上都是一個數學上的優化過程。這個過程的核心,就是目標函數,它是一個由人類工程師預先定義的、精確的數學公式。AI訓練的全部意義,就是通過調整其內部數以萬億計的參數,來找到能使這個目標函數分數最優的模型參數。
從這個角度來說,AI沒有“內在驅動力”:AI的一切“行為”,從生成一段文本到駕駛一輛汽車,都只是為了優化其目標函數的外部表現。它沒有好奇心,沒有求知欲,也沒有生存本能。它不會因為“想”理解世界而去學習,而只是因為“被設定”要去擬合訓練數據集中的統計模式。
因此,AI的整個“存在”,都被這個由人類設定的數學目標所禁錮。它是一個極其強大的“目標執行者”,但它永遠無法成為“目標設定者”。
而自主意識的核心,在于能夠自主設定目標。一個有意識的生命體,其行為受到一系列內在、分層的目標驅動:從最底層的生存、繁衍,到更高層的社會歸屬、自我實現。這些目標并非由外部工程師編碼,而是由億萬年的生物進化“寫入”基因和神經網絡之中的。那么,我們該如何解釋AI有時表現出的、看似具有自主意識的行為呢?例如,ChatGPT在對話中表現出的情感、創造力甚至是“自我反思”,這是不是意識的萌芽?答案是否定的。這些只是基于目標函數的優化,而產生的看起來像是意識的行為罷了。
![]()
當AI產生“幻覺”,憑空捏造事實時,它并非在進行有意識的“創造”或“撒謊”。只是找到了一個它覺得最符合目標函數的詞語組合。當AI對你表達“同情”時,它并未真正“感受”到你的情緒,只是學習到了在特定情境下,生成“表示同情的文本”能夠最大化其目標函數。所以,我同意的觀點:我們應該關注的重點,不是去防范一個遙遠的、幾乎不可能發生的“AI叛變”,而是要防范AI這樣一個沒有意識、沒有道德,但能力極其強大的工具,被別有用心的人用于牟利、詐騙、制造謊言、實施監控甚至發動戰爭。用AI來作惡,我們在之前的“致命的偏差”這一小節的內容中,已經介紹過了一些用預測式AI來“作惡”的案例。也有很多這方面例子。早在2019年,一名英國公司高管就接到了一通電話,這通電話完美偽造了他德國母公司CEO的聲音、口音和語調,并以“緊急業務”為由,成功騙取了22萬歐元的匯款。在當時,這種攻擊還需要專業的技術和不菲的成本。而今天,僅需一個幾秒鐘的真實錄音片段,任何人都可以利用開源工具生成以假亂真的語音,語音詐騙的門檻被前所未有地拉低。
要如何解決這個問題呢?解決之道是必須雙管齊下:既要發展技術盾牌,也要建立能夠約束AI濫用的法律框架。在技術方面,就是“以AI對抗AI”。當前,深度偽造檢測(Deepfake Detection)是一個很熱門的研究方向,通過訓練AI模型識別AI生成內容的細微痕跡。此外,數字內容溯源(Content Provenance)的思路是在內容生成時就為其打上“烙印”。記錄了內容的創作者、創作工具(是否使用AI)、創作時間以及后續的每一次修改歷史。
此外,如何制定法律來監管AI的使用,也是一個重要的手段。目前,全球范圍內對深度偽造的法律規制仍處于起步階段,且零散不一。在美國有少數幾個州出臺了針對“深度偽造”的法律,但覆蓋面極為有限。歐盟通過了《人工智能法案》(AI Act),要求所有使用AI生成或篡改的內容必須明確向用戶聲明。在中國,《生成式人工智能服務管理暫行辦法》則要求服務提供者對生成內容進行明確標識,并建立了算法備案和安全評估制度。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.