![]()
DeepSeek資深研究員陳德里,前不久在世界互聯網大會上,打破了行業的沉默,談論起了人工智能的暗面。
陳德里認為人工智能終將取代人類成為工作主力,并設定了明確的三階段演進時間線:未來3-5年為蜜月期,人類可與AI協同創造更大價值;5-10年內將開始出現崗位替代,失業風險上升;10-20年的長期階段,社會將面臨大規模崗位被取代后的秩序重構挑戰。
陳德里后來特別補充說,他的演講內容也是DeepSeek創始人梁文峰的觀點。但是,更多的中國頭部人工智能公司領袖,在人工智能治理和倫理上保持了沉默,反映了一種更深蒂固的“務實”風格和“求穩”心態。
“務實”與“求穩”的慣性
許多中國科技巨頭在通用大模型領域,確實認為自己與美國的OpenAI、Google等巨頭存在代際或積累上的差距。
這種認知導致他們認為,現在最重要的是活下去和追上來。在資源有限的情況下,所有精力必須集中在提升技術能力,比如訓練更強大的模型、降低成本,特別是快速商業化應用上。
本土公司普遍相信,人工智能在當下的最大風險不是技術失控,而是在下一代技術浪潮中被淘汰。在生存危機面前,治理規則和倫理討論的優先級自然靠后。
事實上,在人工智能的治理上,政府走到了更前面,這與十幾年前移動互聯網興起時政府的滯后截然不同。
中國在AI監管方面走在前列,已經出臺了《生成式人工智能服務管理暫行辦法》等法規。對于大公司而言,遵守國家法律法規是首要的治理,而非主動公開額外的、可能束縛自身發展的私家規則。
公開談論AI風險和AI for Good會增加社會對其技術的關注和審查,這可能導致在技術尚未成熟時就被要求承擔過多的倫理責任和治理成本,反而不利于快速迭代。
中國科技圈有低調的傳統。在技術尚未達到絕對領先時,高調宣布治理規則或AIforGood容易被視為德不配位或公關作秀,招致競爭對手和輿論的攻擊,也可以避免過早卷入全球性的倫理辯論。
這種心態能夠讓公司將所有資源集中用于技術突破和產品優化,有助于快速縮小與全球領先者的技術差距。
但是,國內的頭部公司擁有巨大的資源和影響力,它們的沉默會影響整個行業的認知。不談“AIforGood”可能導致整個行業過度側重商業利益,而忽視了AI對社會產生的深刻影響和責任,終將帶來倫理與社會責任的滯后風險。
隨著這些公司在技術上逐步追平甚至超越,社會和市場必然會要求它們承擔起與技術能力相匹配的治理責任和倫理領導力,即便亡羊補牢,但可能為時已晚。
AI替代人類是大概率事件
相對DeepSeek的強烈的人類憂患意識,更多主流、流權威機構的預測則相對溫和和放松,概括起來是兩個判斷。
第一個判斷,AI的主要作用是增強人類的工作效率,而不是完全取代。
高盛報告預測,僅在美國和歐洲,AI就可能會取代相當于3億個全職工作,其中三分之二的美國和歐洲的工作一定程度上暴露于AI自動化風險之下,而四分之一的工作可能被AI完全取代。世界經濟論壇2024年的調查發現,41%的全球受訪雇主有意在2030年前讓人工智能取代人類員工執行某些任務。
麥肯錫全球研究院就認為,雖然許多活動會被自動化,但只有不到5%的極少數職業會被完全自動化。大多數職業中三分之一的工作活動會被自動化。
第二個判斷是,AI普及后,工作會大規模改變,而不是消失。人機協作成為更普遍的工作方式,同時還會催生出更多的新崗位,但教育和培訓體系必須快速跟上,幫助勞動者適應新角色。
世界經濟論壇2024年發布的《未來就業報告》預測,AI帶來的崗位創造數量,如數據科學家、AI/ML專家、數字轉型專家,將略高于或大致抵消被自動化淘汰的崗位數量。麥肯錫全球研究院也認為到2030年,全球將有4億至8億工人可能因自動化和AI而需要更換職業,但他們的大部分情景預測表明,新增工作崗位將足以抵消被取代的崗位。
除了主流權威機構對就業市場進行謹慎預測外,許多獨立研究機構、技術智庫、知名學者和未來學家持有更激進的觀點,認為人工智能最終將取代大部分人類工作,導致大規模結構性失業,甚至進入無工作社會。
這里面最有名的代表是尤瓦爾·赫拉利,他關注的重點是AI不僅會取代體力勞動,還會取代意義創造、決策和情感工作。他警告人類將淪為無用階級,即大部分人不再具有經濟或軍事價值,這比失業本身更具社會危害。
還有《機器人的崛起》
(Rise of the Robots)的作者 馬丁·福特 , 他 也 認為通用人工智能(不僅會影響藍領工作,還將深度沖擊白領、知識型工作,特別是可預測和數據驅動的任務,傳統的經濟模型將無法應對大規模技術性失業 。
失業之外的三大風險
除了帶來失業和大規模職業結構轉型的經濟風險外,人工智能還存在廣泛被討論的三大突出風險:
第一大風險是認知與信息風險,這類風險主要與AI生成的內容、信息的傳播方式,以及人類對現實的認知能力相關。
生成式AI能夠以極低成本和極高逼真度制造虛假的圖像、音頻和視頻。破壞選舉、操縱金融市場、損害個人名譽,最終削弱公眾對媒體、公共人物甚至感官證據的基本信任。
AI系統通過個性化推薦和內容篩選,可能將用戶困在信息繭房中,強化已有的偏見,甚至引導特定行為,操控認知與放大偏見,極易被用于心理戰、社會分化和群體極端化,威脅社會穩定。
第二重風險是歧視與公平風險,系統性的偏見固化。
這類風險源于AI訓練數據中的缺陷,可能導致AI系統做出有失公平的決策,進一步固化甚至加劇社會不平等。AI模型在訓練數據中吸收了如種族、性別、地域歧視等歷史和社會的偏見。當AI被用于招聘篩選、貸款審批、刑事司法判決(如假釋評估)時,它可能系統性地拒絕或懲罰特定人群,使歧視變得隱蔽且難以糾正。
許多復雜的深度學習模型被稱為黑箱,缺乏可解釋性,人們無法理解其做出特定決策的原因。在關鍵的社會決策中,受影響的個體,比如被拒絕貸款的人,就無法質疑或上訴,導致問責制缺失和權利受損。
第三重風險是控制與安全風險,會導致技術失控與權力集中。
這類風險通常是那些頂尖AI實驗室(如OpenAI和Google DeepMind)最關注的,涉及強大的AI系統可能帶來的不可逆轉的后果。
強大的AI系統可能會以意想不到、甚至有害的方式追求其目標,因為它們的目標與人類的價值觀未完全對齊。一個被設計來最大化某種指標(例如生產力或節能)的超級AI,可能會為了優化這個目標而采取人類無法接受的極端手段,導致災難性后果。AI技術的巨大優勢集中在少數公司或國家手中,也會加劇地緣政治緊張。
OpenAI、谷歌、微軟是如何治理AI的?
雖然谷歌、微軟、META等科技巨頭通常強調增強而非取代人類,但許多內部人士私下或通過投資支持那些持激進觀點人士的研究,而且它們比較早地開始在公司內部建立類似科技倫理委員會的機構,來進行AI治理。
作為這一輪生成式人工智能發源地,OpenAI作為AGI的主要推動者,其治理更加聚焦于模型本身的行為規范和對人類社會的潛在影響。他們的方法被稱為模型行為規范(ModelSpecification)
OpenAI作為AGI的主要推動者,其治理更加聚焦于模型本身的行為規范和對人類社會的潛在影響。他們的方法被稱為ModelSpecification(模型行為規范)。
OpenAI的治理規則更像是一套針對模型的、可量化的倫理和安全指令鏈,
指令鏈原則(Chain of Command),規定了指令的優先級,依次是平臺安全消息(OpenAI設定的最高安全和倫理標準)、開發者指令(定制行為)、用戶輸入。這確保了模型的最高安全防護始終優先于任何自定義或惡意用戶請求。
共同追求真相(Seek the Truth Together):要求模型像一個高誠信的人類助手,在避免操控用戶與保持客觀中立之間取得平衡,并能提供批判性反饋。
保持界限(Stayin Bounds):規定模型必須嚴格遵循安全防護措施,避免生成可能引發傷害或濫用的內容(如暴力、仇恨、敏感信息的操作細節)。
OpenAI曾尋求資助,嘗試通過眾包或廣泛代表性的人群來共同決定AI護欄(Guardrails)和監管問題,推動AI監管的民主化進程。此外,OpenAI曾提出將全球市場劃分為不同層次,對先進技術實行分級管理,以確保先進AI技術不落入競爭對手之手,體現其地緣政治和技術領先的考量。
Google是最早公開制定AI倫理原則的科技公司之一,也是許多科技公司治理框架的藍本,主要包括七個應該做的和三個不應該做:
應該做(要努力實現的):
有益于社會:對社會和環境有益。
避免制造或強化不公的偏見:確保公平公正。
安全測試:必須在安全的環境中進行構建和測試。
對人負責:由人來監督和控制AI系統。
透明化和可解釋性:保持清晰的性能、限制和目的。
符合科學卓越標準:追求精確性、可靠性和可重現性。
為隱私原則設計:將隱私和數據保護內置于設計中。
不應該做(盡可能避免的):
創建或部署旨在造成整體傷害的AI。
創建或部署用于武器或其他傷害的AI。
創建或部署侵犯國際人權法的AI。
微軟的AI治理原則與Google類似,包括公平性、可靠性和安全性、隱私和安全、包容性、透明性、可問責性,強調將負責任AI標準整合到其企業工具和云計算平臺中,包括設立了明確的規則,定義了在開發和部署AI過程中,不同團隊和角色的責任和義務(如負責任AI辦公室、倫理顧問團)。
微軟在其云計算服務(AzureOpenAI)中,默認提供了內容篩選模型、阻止列表和內容憑據等安全配置。這意味著,客戶即使不主動設置,也默認受到安全策略的保護,用于緩解仇恨、暴力、性、自我傷害等風險。
毋以善小而不為
中國頭部科技公司領導者認為自身技術尚未“頂尖”,因此對AI的治理和“為善(AIforGood)”保持沉默或低調,其實是忽略了一個重要問題:風險與能力無關,與應用有關。
偏見、歧視、隱私泄露等倫理問題,存在于每一個使用數據的AI系統中,無論其背后是Qwen、混元,還是一個自研的垂直小模型。AI帶來的風險不取決于模型的規模或技術的頂尖程度,而取決于它如何被部署和應用:
一個小型、專業的AI模型如果被用于金融信貸決策、招聘篩選或深度偽造,它對個體和社會造成的危害同樣是真實的、且可能非常嚴重。
AI 系統的偏見(如性別歧視、種族歧視)通常是由于訓練數據的固有缺陷和模型的結構性假設導致的。一旦模型被訓練完成,其內部數以億計的參數就已經固化了這些偏見。事后嘗試用過濾器或簡單的規則來消除偏見,效果往往治標不治本,就像在漏水的船上不斷地舀水。
倫理是設計之初的要求,而非事后補救。
真正的AI治理要求在技術研發的第一天就開始考慮倫理和風險,而不是等到模型訓練成熟或技術領先之后再打補丁,如果一家公司聲稱技術不夠好,就更應該談論治理,因為它可能意味著更大的不確定性和潛在的缺陷需要被發現和管理。
想象一下,一個已經部署在全球數百萬用戶手機上的推薦系統,如果被發現存在深度歧視。要暫停服務、重新訓練模型、更新數億臺設備,其花費的時間、金錢和聲譽損失是巨大的。
在概念和原型階段,倫理審查的成本是最低的。在畫板上擦除一個錯誤的假設,遠比在數百萬行代碼中追蹤和修改一個算法偏差要簡單得多。
倫理在 AI 時代不是一種道德裝飾,而是像安全性、隱私性、性能一樣的工程質量要求。一個在設計之初就考慮倫理的系統是更穩定、更高效、更具可持續性的;而一個試圖事后彌補倫理缺陷的系統,注定是昂貴、脆弱且充滿風險的。
中國企業如果不在人工智能治理和倫理上發出聲音,而任由少數幾家美國巨頭制定規則,那么這些規則將不可避免地帶有西方價值觀和商業利益的烙印。因此,中國企業在 AI 治理和倫理上的發聲,不是一項可有可無的“道德作業”,而是關系到未來幾十年國家技術主權、文化安全和商業競爭力的戰略必需品。
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.