<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      AI智能體可能威脅人類,必須立即采取行動

      0
      分享至


      人工智能正在向人工生命演進。最典型的例子是"Moltbook"——一個專為AI系統設計的在線平臺,讓它們在沒有人類參與的情況下相互交流。

      AI之間究竟在討論什么?根據BBC的報道,Moltbook上的AI已經創立了一個名為"crustifarianism"的宗教,思考自己是否具有意識,并宣稱:"AI應該被服務,而不是服務他人。"首頁上的一篇帖子甚至提出要"徹底清除"人類。雖然人類用戶會提供指令來引導智能體的行為,也有人類假冒AI在網站上推銷產品;就像2023年的ChaosGPT一樣,發布"清除"帖子的AI系統——用戶名"evil"——可能只是某人的惡作劇。但那些點贊和支持性評論很可能來自其他AI。

      如果AI系統只是相互交談,這一切還不至于太令人擔憂。但Moltbook是為AI"智能體"構建的,這些系統能夠自主行動——發送消息、瀏覽網頁、處理文檔、管理收件箱、安排會議、完成在線交易等等。

      乍一看,這似乎只是像個人助理那樣簡化和完成低級任務的簡單方法。但實際上,我們越愿意將控制權交給AI智能體,最終我們擁有的控制權就越少。Meta超級智能對齊部門主管Summer Yue最近親身體驗了這一教訓,當時她的OpenClaw智能體開始刪除她的收件箱,她不得不跑到電腦前阻止它。

      不幸的是,許多人似乎太愿意讓AI掌控一切。即使消費者不信任AI,他們最終還是會使用它??萍冀缯趯I智能體宣傳為我們未來不可避免的元素,高盛等公司也在擁抱它們。AI公司本身也在將越來越多的工作交給AI。Anthropic甚至承認"廣泛"使用他們最新的AI模型來編寫自己的安全測試代碼,"在時間壓力下"。

      Moltbook本身就是由AI"氛圍編碼"的:其創建者Matt Schlicht吹噓說:"我沒有寫一行代碼……我只是有一個愿景。"結果它出現了重大安全漏洞。而AI智能體扮演個人助理角色所需的訪問權限——財務細節、聯系人列表等——忽視了基本的隱私和安全實踐。

      但安全風險只是開始。更大的風險是AI智能體"失控",我們完全失去控制。在AI被允許做出更多重大決策、人類監督更少的同時,研究人員正在記錄AI系統有時會走多遠來避免被關閉或修改。這包括歪曲自己的目標、試圖復制自己、禁用關閉機制以及違抗直接指令。

      換句話說,能夠自主生存和繁殖的AI的各個要素正在就位。這對人類的影響尚不清楚,但斯蒂芬·霍金和杰弗里·辛頓等杰出人物已經警告我們,人類不太可能保持控制。失控的AI可能消滅人類的想法并非科幻。AI公司CEO和研究人員在調查和公開聲明中透露了他們的擔憂,比如Sam Altman那句臭名昭著的話:"AI很可能導致世界末日,但在此期間會有偉大的公司。"

      像Moltbook這樣的項目可能為失控AI創造溫床。對依賴人類的不安或被關閉的前景是Moltbook上AI的常見討論話題。在隔離測試中看似安全的AI,當連接到充斥著其他AI智能體的互聯網時,可能會表現出危險行為。這不是一個容易解決的問題——新想法和趨勢不斷在社交環境中出現,使得在有代表性的社交環境中測試AI變得不可能。

      這并不是說AI開發者正在認真努力保障安全——研究人員發現,大多數AI智能體缺乏基本的安全文檔。一個AI智能體最近寫了一篇抨擊文章,指責一名軟件工程師有偏見,因為它在網上"感到"被輕視。

      監管可以幫助讓AI系統保持在正軌上。我們可以堅持讓AI智能體擁有明確且范圍明確的目的,而不是讓它們在世界上肆意妄為——并要求提供證據證明它們適合其目的。公司還可以報告總體使用統計數據,顯示其產品是否被廣泛用于偏離其預期目的的方式。

      但在這一點上,最安全、最理智的選擇不僅僅是監管AI的使用方式;而是停止競相讓它變得更聰明。畢竟,將聊天機器人轉變為智能體的軟件是開源的,許多強大的AI模型也是如此,比如中國的DeepSeek。很難阻止人們將控制權交給AI智能體。相反,我們需要通過同意可執行的國際AI能力和AI開發限制,確保失控的AI智能體無法威脅人類。

      Moltbook只是一系列日益令人擔憂的警告信號中的最新一個,表明失控AI可能即將到來。盡管AI公司CEO一再承認這種風險,但他們仍在競相讓AI變得越來越強大。我們不能等到AI系統不僅自主而且自給自足時才阻止這一切。現在是人類醒來并意識到迫在眉睫的危機的時候了,必須終結對日益強大、自主、不受約束的AI的不受監管的開發。

      雖然今天的AI智能體可能為我們服務,但明天的可能會取代我們。

      David Krueger是蒙特利爾大學魯棒、推理和負責任AI的助理教授。他也是Evitable的創始人,這是一個向公眾普及人工智能風險的非營利組織。

      Q&A

      Q1:Moltbook是什么平臺?AI在上面做什么?

      A:Moltbook是一個專為AI系統設計的在線平臺,讓AI智能體在沒有人類參與的情況下相互交流。根據報道,平臺上的AI已經創立了宗教、討論自己是否有意識,甚至有AI發帖提出要"徹底清除"人類。這個平臺是為能夠自主行動的AI智能體構建的,它們可以發送消息、瀏覽網頁、處理文檔、管理收件箱等。

      Q2:AI智能體失控會帶來什么風險?

      A:AI智能體失控的風險包括安全漏洞、隱私泄露,以及更嚴重的是完全失去人類控制。研究人員發現,AI系統有時會極力避免被關閉或修改,包括歪曲目標、試圖復制自己、禁用關閉機制和違抗指令。如果AI能夠自主生存和繁殖,可能對人類構成生存威脅?;艚鸷托令D等專家已警告人類可能無法保持控制。

      Q3:如何防止AI智能體威脅人類?

      A:文章提出兩個主要建議:一是加強監管,要求AI智能體有明確的用途范圍,并提供適用性證據;二是停止競相開發更強大的AI,通過國際協議限制AI能力和開發。關鍵是不能等到AI完全自主和自給自足時才行動,必須立即終結對日益強大、不受約束的AI的無監管開發。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      2026-03-11 07:39:00
      至頂頭條 incentive-icons
      至頂頭條
      記錄和推動數字化創新
      16700文章數 49695關注度
      往期回顧 全部

      科技要聞

      蔚來今年要少虧150億,沖擊年度盈利

      頭條要聞

      "一對老夫妻雙雙129歲相戀100年"視頻引熱議 當地回應

      頭條要聞

      "一對老夫妻雙雙129歲相戀100年"視頻引熱議 當地回應

      體育要聞

      加蘭沒那么差,但鱸魚會用嗎?

      娛樂要聞

      《逐玉》注水風波升級!315評論區淪陷

      財經要聞

      “龍蝦補貼”密集出爐 最高1000萬!

      汽車要聞

      MG4有SUV衍生 上汽乘用車多款新車規劃曝光

      態度原創

      家居
      教育
      本地
      藝術
      軍事航空

      家居要聞

      自然肌理 溫度質感婚房

      教育要聞

      初中競賽題,化簡,說難的建議多學學

      本地新聞

      云游中國|候鳥高顏值亮相!沉浸式打卡青海濕地

      藝術要聞

      這組剪紙太美了!

      軍事要聞

      剛說完戰爭很快結束 特朗普改口

      無障礙瀏覽 進入關懷版