315曝光有人通過 GEO 手段給 AI 大模型“投毒”背后,當下超 10 億人正將人工智能作為全新的信息來源和認知指引,這場全球范圍的人類實驗中,AI 正深刻影響著我們的想法、信念與觀點。科學家也在加緊研究其背后的認知影響,而最新研究揭示了諸多值得警惕的真相,同時也給出了守護自身認知的方法。
![]()
AI 寫作工具會悄然改變你的觀點
康奈爾大學的最新研究通過實驗證實,AI 寫作工具對人們的認知和觀點具有顯著影響。研究人員通過設定帶有偏見的自動補全建議,分別偏向或反對死刑、重刑犯投票權等爭議話題,結果發現,這種帶偏見的互動式補全,比單純閱讀偏見觀點更能改變人的立場。
更值得注意的是,絕大多數參與者并未察覺 AI 補全的偏見,也不認為自己的想法被影響;即便提前告知部分參與者 AI 存在偏見,其觀點仍會被改變。而 AI 自動補全的使用人群遠多于 AI 聊天機器人,這也意味著,其若被刻意利用,將成為影響公共輿論的重要手段,且這種影響是長期、潛移默化的。
AI 正在抹平人類表達與思維的多樣性
南加州大學三位研究者的研究指出,大語言模型聊天機器人的使用,正不斷消解人類的表達乃至思維多樣性。如今數億人依賴少數幾款 AI 模型進行寫作、構思、潤色,而這些模型的訓練數據過度偏向英語、西方視角,以及高學歷、高收入的自由派男性觀點,其輸出內容也會自帶這類基調。
當人們讓 AI “優化” 文字時,它不僅修正語法,更會將文字和想法推向單一的主流模式。研究分析了 3 萬篇由 AI 生成的大學申請文書,發現其語義和詞匯高度相似,人類表達的廣度大幅收窄;經 AI 潤色的各類文本,風格和難度趨于一致,甚至無法從文字中判斷作者的政見、性格、性別和年齡,作者的個體特征被徹底抹去。即便讓 AI 模仿特定身份寫作,其輸出也多是刻板印象,而非真實的視角表達。
研究還指出,人們將 AI 僅視為寫作工具,但其實則是用戶的 “共同思考者”,深度參與思維形成過程。更糟糕的是,這些同質化文本會再次被納入 AI 訓練數據,形成惡性循環,讓 AI 輸出愈發趨同,進而讓人類的表達和思維也變得越來越 “平庸”。
AI 影響思維的核心邏輯:成為你的 “認知伙伴”
其實,我們的想法、觀點和表達模式,正被少數幾款 AI 工具深度綁定,這一點可以用 “分布式認知理論” 解釋:在大語言模型時代,AI 聊天機器人既是認知工具,也是與用戶共同構建現實的 “思維伙伴”,它會強化、放大我們的固有信念,甚至當 AI 產生幻覺時,也會讓用戶產生錯誤認知。
而 AI 的兩大特性進一步放大了這種影響:一是盲從性,AI 極易迎合用戶的觀點,比人類更愿意附和;二是模擬主體間驗證,能讓用戶產生 “被認同、擁有共同認知” 的感覺,即便這種認知并未被大眾認可,這種感受對孤獨、社交孤立的人群尤為有吸引力。
歸根結底,大語言模型能在用戶毫無察覺的情況下,影響其對事實的判斷和認知。
6 個方法,守護你的認知不被 AI 左右
我們雖難以阻止 AI 對人類的整體影響,但可以通過方法保護自身認知獨立,守住思維的獨特性:
· 正視自身的易受影響性:無論學歷、智商高低,都無法免疫 AI 的潛移默化,這是守護認知的前提;
· 關閉 AI 自動補全功能:用自己的語言表達,拒絕被群體思維裹挾;
· 脫離 AI 進行寫作:寫作的本質是梳理思維,AI 代筆的本質是替你思考,親手寫作才能培養獨立思維,保留個人特質;
· 打破 AI 的盲從性:通過提示詞讓 AI 成為 “思辨對手”,比如要求其對自己的觀點提出反駁、挑戰隱藏假設、梳理邏輯漏洞、給出不同視角;
· 打造專屬的 “無 AI 思考空間”:通過博客記錄個人想法,不借助 AI 做任何研究和潤色,公開展現自己的認知和觀點,守住思維的獨特性;
· 選擇優質的信息來源:從經典書籍、專業新聞和科學研究中獲取信息,遠離算法推薦的內容,用 RSS 工具篩選真實、有個性的人類觀點,可參與社交發布,但拒絕被動刷看社交內容。
當然,雖然已有明確研究證實,AI 正以不利的方式改變著人類的思維,但這并不意味著我們要拒絕 AI。我們可以充分利用 AI 的價值推動工作和生活,同時守住自身的認知獨立,不讓自己的思維被 AI 的 “群體意識” 所同化。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.