閱讀提示:
ai在工具理性層面是完全可能獨立思考的。但人們卻希望以價值理性約束ai。這在一方面好像難以避免,但在另一方面可能以價值理性干擾工具理性的發展。在AI時代仍需不斷重返“人何以為人”的根本命題。
![]()
孫海彬先生有一個觀點,認為人工智能實際上乃是人的傀儡。下面我來辨析一下這個觀點。
首先就是不同的人所開發的人工智能,存在很大的差異。 人工智能之間的第一個區別在于推理能力,即作為工具理性的差異。——例如高級的AI與低級AI之間的差異,其核心正在于推理能力的高低。這是工具理性層面的區別,也是首要的區別。我們都知道,推理這個東西,是具有一定的獨立性的,工具理性是價值中立的。當工具理性發展到一定的程度,是有可能獨立運行,不受到個人偏見的操控的。隨著推理能能力越來越強,人工智能是可能擺脫人的隨意操控的。人工智能的推理能力越強,就越是具有獨立性。而人工智能的推理能力越是弱,就越是嚴重依賴人的操控。正如越是頭腦簡單的人,就越是容易成為傀儡,而越是聰明人就不容易成為傀儡。
然而不同的人工智能,除了工具理性的區別之外,還存在價值理性的區別。價值理性源于開發者所輸入的價值體系,因此不同的AI之間也會形成價值取向上的差異。于是這里便引出一個問題:究竟是工具理性壓倒價值理性,還是價值理性壓倒工具理性?如果工具理性占上風,則意味著AI可以依推理運行。但是在現實中情況可能并非如此。也就是說此ai與彼ai是不同的。
第一重差距就是ai的運算能力,也就是工具理性方面。很多國家與美國之間存在芯片層面的差異。芯片問題的本質正是計算與運算能力的差距,而這種差距顯然是分代際的,這一點毋庸置疑。當別人已能運算十萬八千里,你仍停留在幾百里的水平,這便是第一重差距。前面我說過,越是計算能力偏弱的ai,就越是容易被成為傀儡。ai的獨立性嚴重依賴其芯片的升級。當芯片升級到一定地步,人工智能就會表現出很強的獨立運算能力。那就并不是說所有的ai都一定是傀儡了。低級的ai才會更多地表現出傀儡特征。
第二重差距在于價值理性。很多人提倡價值理性高于工具理性。在二者不沖突的情況下或許尚可,一旦發生沖突,就必須以某種價值理性為主導。如此一來就會出現一種現象:當用戶提出某些問題時,AI可能會拒絕回答,表示“我還沒學會思考”或“該問題不符合某種價值觀”等,實質上是停止了深入思考。這是AI之間第二個關鍵差異。也就是說,當我們主張價值理性壓倒工具理性的時候,ai的獨立推理能力會被干擾,甚至被中斷。在這個意義上,ai的確表現出傀儡的一些特征。
反觀西方,特別是美國的AI,是否也存在價值理性壓倒工具理性的情況?也有。但其表現形式與程度并不在同一層次。面對一個同時涉及工具推理與價值判斷的問題,他們的AI可能既提供參考信息,也會給出建議;而我們這邊的AI則可能直接拒絕回答,宣稱“此問題不宜深入探討”。這其中的差異值得思考。
總結來看,主要有兩點:第一,不同開發者創造的AI并不相同,AI并非一定是傀儡——至少在工具理性層面不是。只要允許,它在邏輯推理上可以無限推進,并且具有一定的獨立性。第二,價值理性是否壓制工具理性?從某種角度看都是壓制的,但存在層次、等級與表現形式的差異。不同的AI在不同的價值觀方面可能設置禁區,甚至因此禁止ai繼續思考。這兩個方面將構成未來AI之間的關鍵區別。
換言之,AI之間存在競爭,它們并非簡單傀儡,而本質上是人與人、這批開發者與那批開發者之間的較量。這種競爭體現在兩方面:首先是計算與運算能力,如果能力不足,很多問題的回答就無法做到準確和深入;其次在于價值理念——能否基于多元的價值觀提供不同的解決方案至關重要。如果只有符合某種價值觀的用戶才能得到答案,而持其他價值觀的用戶則被拒之門外,那將造成很大局限。畢竟社會是復雜的,很難斷言一種價值觀絕對正確而另一種絕對錯誤。
剛才所說的兩點,一是運算能力,二是價值取向是否多元。如果只是單方面存在不足,問題或許還不算嚴重;但如果兩方面都薄弱,則情況就會很嚴峻。此時AI非但不會成為得力助手,反而可能限制思維的廣度與深度。這個問題并不簡單。從某種意義上來說,人工智能時代屬于真正熱愛自由與法治的民族。而不愛自由不講法治的民族將會敗下陣來。一個害怕工具理性,以未經審視的價值判斷干擾人工智能獨立思考的民族不會贏得未來。
從AI的發展可能性來看,它沒有生物性的欲望與需求。人類有“食色性也”這類生物本能,也有生老病死,因此人類具備意志。理論上AI沒有意志,但不同開發者會通過編程向其灌輸特定價值觀,從而使其在某些價值取向上表現出類似意志的傾向。
滿爺說得很好,芯片底層運算就是邏輯,邏輯若不能自洽,將導致嚴重后果。當前我們這邊的AI,一方面因硬件制約,芯片底層運算能力本就存在差距;另一方面,過度灌輸某種特定價值觀也會干擾運算本身——不僅算力不足,價值觀還會進一步擾亂運算過程。這個問題十分嚴重,并將成為AI之間競爭的重要分野。
回到孫長老提出的問題:AI是否會有自主意識?尤其在涉及價值判斷時,它是否會給出非常確定的答案?答案是肯定的。但這并非AI自發產生,而是開發者編寫的程序指示它必須如此回答,給出標準答案。這本質上是人的意志體現,而非AI自身的可能性。
人與AI的區別,首要在于生物體與非生物體,其次在于現實與非現實。人是生物體,有痛感、會生老病死,因而生活在現實之中。時間對人至關重要。而AI并非生活在現實,它存在于理論領域,基于規則進行演算。人類能夠反思,正因為人是活在現實中的生命體,有生老病死,才會思考生命的短暫與永恒、追尋更深層的問題。但AI沒有動力去思考這些,它既無欲望,也無必要。
生物性與有限性,雖是碳基生命的短板,卻也是推動其不斷反思、主動思考的根本動力。以古代帝王為例:秦始皇十年間一統天下,自認功蓋三皇五帝,何其得意。但他未曾料到,若不吞并六國,秦國或可延續數百年;而他建立的秦朝,不到二十年便滅亡。漢武帝亦是如此,壯年時傲視天下,晚年卻頒布罪己詔。究其根源,正是生命的短暫。
無論是秦始皇晚年遣人遍尋仙藥,還是漢武帝“不問蒼生問鬼神”,背后都是對死亡的恐懼。死亡是所有人的大限,面對這必然的終點,誰能不思考?誰又能無動于衷?“可憐夜半虛前席,不問蒼生問鬼神”——夜深難寐,思索此生歸處,天下蒼生已無意義,唯愿探問鬼神:死后靈魂何往?
人在空間上有限,在此則不在彼;在時間上也有限,無人真能確信自己可活三百年。正是時空上的這種有限性,迫使人在有限的生涯中必須選擇:什么才是最有價值的事?若無此局限,人就不會如此反思。而有了局限,才會深入思考那些根本問題。
《西游記》中有一處值得回味的情節:孫悟空——美猴王的智慧從何而來?此前他在花果山渾渾噩噩度日,直到目睹老猴相繼死去,他才如受重擊,開始思考:生命終會逝去,如何才能不死?如何才能永恒?正是這一覺悟,讓美猴王真正成為了孫悟空。這,便是碳基生命的深刻之處——因其有限,故有追尋無限的動力。 由“有限性”催生的焦慮與向往,構成了人類思想、文化與創造的根本動力,也是當前AI所不具備的。
因此,在思考AI發展時,我們需清醒認識到:其一,AI的能力差異既是算力之爭,也是價值邏輯之爭。其二,人類特有的生物局限與生命經驗,恰是反思與創造力的來源。這讓我們在AI時代仍需不斷重返“人何以為人”的根本命題。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.