作者 | 劉春
出品 | 網易科技
AI正在以不可思議的速度失控,而人類還在為“誰來踩剎車”吵得不可開交。
當中美科技巨頭在“算力競賽”中狂飆突進時,世界卻像一個被綁在后座的乘客,驚恐地發現:這輛車的方向盤和剎車根本沒人管!從加劇貧富差距到潛在的“滅絕風險”,AI的威脅清單越拉越長,但全球監管至今仍是一片空白。
《自然》撰文稱,就在這種危險的混亂中,中國突然出手了,重申建立“世界人工智能合作組織(WAICO)”,試圖為這輛失控的列車制定全球交規。當美國還在猶豫要不要松開油門時,中國為何主動扛起了“全球治理”的大旗?這場關乎人類命運的規則之爭,究竟誰能勝出?
一、 中美分歧:一方主張“去監管”,一方力推“全球治理”
在全球AI競賽的牌桌上,中美看似在玩同一款游戲,但目標和打法卻截然不同。
中國:實用主義驅動,開源“煉大模型”。
在“人工智能+”國家戰略驅動下,中國AI發展的首要目標是 “賦能實體經濟” 。企業傾向于開源模型權重,鼓勵廣泛下載和應用。
簡言之,先搞“AI+千行百業”,再談“通用人工智能(AGI)”的星辰大海。
美國:創新優先,警惕與放任并存。
美國聯邦層面迄今沒有綜合性AI立法,政策更傾向于為產業創新松綁。總統特朗普在今年1月甚至撤銷了相關的AI安全行政令,其路徑更偏向于 “市場主導,事后糾偏” 。
美國傾向于通過“去監管”來保創新,而中國則在推動產業應用的同時,積極尋求建立全球治理框架(如WAICO)。這種根本性的路徑分歧讓全球規則的協調變得異常復雜。
二、 中國監管:竟是“外緊內松”?
出乎很多人意料,中國其實是全球AI監管的 “先行者”。
早在2022年,中國就推出了專門針對生成式AI的管理辦法,對內容安全、隱私保護、數據安全劃出了清晰的紅線。例如,所有面向公眾的AI服務上線前,都必須通過監管部門的安全評估。
這使得像深度求索(DeepSeek)這樣的明星模型,被外部專家評價為 “世界上受監管最嚴格的AI模型之一”。
但有趣的是,在嚴格立法的同時,執法層面卻展現出靈活性。專家指出,中方在實際操作中常采取 “溫和的推進方式” ,在守住底線的前提下給予企業一定的試錯和適應空間。
這種 “立法先行、彈性執法” 的組合拳,構成了獨特的中國式監管節奏。
三、 全球亂局:唯一的“硬法”竟來自歐洲
放眼世界,具有法律強制力的全球AI規則幾乎為零。
目前唯一的“硬法”是歐洲委員會(非歐盟)在2024年5月通過的 《人工智能框架公約》 。它要求簽署國將AI與人權保障等原則納入本國法律,但沒有設置跨國執法機構或制裁措施,更像一份 “君子協定” 。
此外,世界充斥著各種不具備強制約束力的 “軟法” :
· 聯合國教科文組織的《人工智能倫理建議》(Recommendations on the Ethical Aspects of Artificial Intelligence)
· 經濟合作與發展組織的《人工智能原則》(OECD Principles on AI,2019)
· 中國等28個國家和歐盟共同簽署的《布萊切利宣言》(Bletchley Declaration)
這些文件凝聚了共識,指出了風險,但都不具備強制約束力。全球AI治理,仍是一個 “倡議多、協議少” 的松散江湖。
四、 中國方案WAICO,意在沛公?
在此背景下,中國連續力推的WAICO提案,意圖何在?
根據中方闡述,WAICO將是一個協調各國AI治理規則的平臺,同時 “充分尊重各國政策差異” ,并特別關注全球南方國家的訴求。總部擬設在上海。
WAICO本身可能不會直接制定全球法律,但它可以成為一個關鍵的 “共識孵化器” 。專家分析,其戰略價值至少有兩層:
1. 商業標準權:“能夠設定標準,有助于中國產品向全球擴散。” 誰主導規則,誰就能為自身技術路線掃清障礙。
2. 外交影響力:在全球南方扮演 “代言人” 角色,傳遞 “AI治理不能只聽西方的” 信號。
五、 未來藍圖:IAEA、CERN,還是ICAO模式?
一個有效的全球AI治理機構應該長什么樣?專家們正在歷史中尋找藍圖。
1. IAEA(國際原子能機構)模式: 國際原子能機構設立技術標準,并推動具有法律約束力的條約例如《核安全公約》。其 “第三方核查” 機制,未來或可用于監督AI研發是否遵守安全承諾。
2. CERN(歐洲核子研究中心)模式: 建立一個國際化的前沿AI研發實驗室,讓最強大的AI由全人類共同開發、共享成果。
3. ICAO(國際民用航空組織)模式: 國際民用航空組織制定詳細的技術和安全標準,再由各國自動采納到國內法中,實現 “無縫” 全球協同。
然而,AI的挑戰前所未有:它通用、進化極快、且主要掌握在私營公司手中。舊地圖能否找到新大陸,仍是未知數。
六、 終極拷問:我們能在危機到來前形成共識嗎?
中美之間的戰略競爭,讓任何可能限制自身AI發展的國際協議都變得 “極其困難”。最近三年,國際社會對AI安全的關注熱度似乎有所下降。
我們能否在AI的“切爾諾貝利時刻”到來之前,就建立起有效的全球護欄? 這考驗著人類的智慧和遠見。
或許,正如一位專家所言,WAICO這類組織的核心作用,在于促進對風險共識的理解,或者幫助各國 “畫下不可逾越的紅線” 。即便沒有一蹴而就的全球法律,共同的底線也能降低墜入深淵的概率。
這場關于AI未來的規則博弈,剛剛拉開序幕。而中國,已經堅定地走到了舞臺中央,準備發出自己的聲音。
