![]()
哈嘍,大家好,小圓這篇評論,主要來分析一個很有意思的問題:我們平時談論AI時的那些說法,會不會在不知不覺中給它賦予生命,又到底是誰被這些語言誤導了呢?生活里,我們常聽到“ChatGPT理解了我的問題”“AI學會了識別圖像”這類表述。
聽著順理成章,幾乎沒人會特意停下琢磨背后的深意,但愛荷華州立大學的研究團隊發現,這些看似普通的用詞選擇,可能正在悄悄改變我們對AI本質的認知,很多人都擔心媒體會過度把AI擬人化,可實際情況真的是這樣嗎?
![]()
![]()
要搞清楚語言對AI認知的影響,最直接的就是看我們用什么詞描述它,愛荷華州立大學的英語教授喬·麥基維茨和同事們,專門做了一項大規模研究,他們分析了超過200億詞匯的新聞語料庫,重點追蹤AI、ChatGPT這兩個詞和心理動詞的搭配頻率。
一開始研究團隊以為能找到大量擬人化表達,結果卻出乎預料,和AI搭配最多的心理動詞是需要,總共出現了661次,而知道和ChatGPT搭配僅32次,這些心理動詞在日常口語里的使用頻率可比這高多了。
![]()
如果說AI需要理解現實世界,擬人化色彩就濃了,這里的需要,暗含了類似人類的期望、道德判斷,可這些都是當前AI根本不具備的,所以說,語言里的門道可不少,不是光看用詞就能下結論的,這也引出了一個更核心的問題:擬人化到底是絕對的有或沒有,還是存在其他可能呢?
![]()
研究團隊通過分析發現,擬人化并不是非黑即白的判斷題,而是一個連續的光譜。高級傳播項目主任珍妮·奧恩就明確表示,擬人化存在于一個連續譜上,這一發現也和近期其他研究的結論不謀而合,這個觀點很有道理,我們對AI的認知,不會只停留在是機器或是人這兩個極端上。
![]()
影響這個光譜的因素有不少,首先是AI自身的輸出,2024年有一項關于大語言模型類人化表達的研究顯示,AI系統自己的輸出就常帶有擬人化特征,研究人員還開發了DUMT方法,專門用來測量和控制語言模型輸出的人類化語調程度。
這說明問題不只是我們怎么說AI,AI自己怎么“說話”也很關鍵,就像我們平時用ChatGPT,它用第一人稱我來回應時,很容易讓人產生和真人對話的錯覺,研究者把這叫擬人化陷阱,既是營銷手段,也是一種認知謬誤。
![]()
![]()
麥基維茨和奧恩的研究,其實推翻了一個普遍認知,很多人覺得媒體在系統性地把AI擬人化,進而誤導公眾對其能力的判斷,但實際情況是,新聞寫作中的AI擬人化遠沒有想象中普遍,反而要微妙得多。
![]()
不同心理動詞的擬人化程度差異,思考、感覺、希望,是不是比處理、計算、輸出更容易讓人聯想到人類?那些不常出現的強烈擬人化表達,會不會比高頻的溫和表達對公眾認知影響更大?這些問題搞清楚了,我們才能更精準地用語言描述AI。
隨著大語言模型越來越復雜,它們的行為和人類的差異越來越小,這時候精準使用語言就變得前所未有的重要。我們既不用刻意回避自然的表達,免得讓技術討論變得生硬晦澀,也不能隨意使用帶有強烈人類特征的詞匯,夸大AI的能力和自主性。
![]()
畢竟語言不只是簡單的描述工具,它還在塑造我們對現實的理解,當我們說AI思考時,到底是在描述一個技術過程,還是在賦予它本不具備的意識?答案藏在語境、表達意圖,以及我們對AI本質的認知深度里。
對科技傳播者來說,精準用詞、把握語境,是傳遞真實技術信息的關鍵,未來,隨著對AI認知的不斷深入,我們的語言表達也會不斷調整,但核心始終不變:用客觀、準確的語言,還原AI作為工具的本質,同時尊重技術發展的客觀規律。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.