![]()
2024年5月《國際人工智能安全報告》發布之后,各個國家開始密集出臺AI治理方案。歐盟有法案,美國有藍圖,中國有管理辦法。看起來人類第一次在技術失控前提前立規矩了,挺明智的。但我看完這些方案之后的感受是:他們不是在討論怎么管AI,是在討論誰說了算。
我翻了一下過去一年各國出的AI相關文件。
歐盟的《人工智能法案》把AI按風險分四類,高風險要嚴格審查,中風險要透明告知,低風險自我管理。美國那邊強調競爭,說"在確保安全的同時保持創新優勢"。中國提開放合作,呼吁共建共享,但也明確內容要符合社會主義核心價值觀。
三個地方,三套邏輯。
歐盟的邏輯我能理解——怕出事。AI醫療誤診了怎么辦?AI金融模型崩盤了怎么辦?先把門檻抬高,寧可錯殺不能放過。美國的邏輯我也能理解——怕落后。如果監管太嚴,技術公司全跑別國去了,領先位置不保。中國的邏輯同樣能理解——怕封鎖。技術在別人手里,規則也是別人定的,永遠被動。
但理解歸理解,問題是這三個邏輯根本兼容不了。
我在一個線上研討會里聽到有個學者打了個比方:現在就像19世紀的鐵路,英國用寬軌,歐洲大陸用窄軌,美國又一套標準。最后誰的標準成了國際通用,誰就能主導未來幾十年的產業秩序。
AI比鐵路更麻煩。它不只是一項技術,它滲透到醫療、教育、金融、軍事、藝術創作,幾乎所有領域。一個國家的AI技術路線如果成了國際標準,意味著這個國家的企業在全球市場有天然優勢。
這不是猜測。OpenAI的GPT系列已經成為事實上的行業標準,很多國家的AI應用都是基于它的接口開發的。這意味著什么?意味著數據流向美國,意味著美國的技術標準在無形中成了全球標準。
歐盟急,所以立法要快。美國也急,所以強調不能為了安全犧牲創新。中國更急,因為技術差距還在,必須在規則層面爭取話語權。
我朋友那個"搶座位"的說法,越想越準。
但有個更現實的問題:AI跑得太快了。
2022年ChatGPT出來,2023年多模態模型,2024年具身智能,2026年可能就有AGI雛形。各國的治理方案還在討論階段,技術已經迭代了好幾輪。等規則真正落地,可能早就過時了。
我在一個技術論壇看到有人吐槽:"現在立的規矩,是給昨天的AI立的。等法案通過,AI早就不是那個AI了。"
這句話挺扎心的。
還有一個事兒讓我不太舒服。各國在討論AI安全的時候,好像默認了一個前提:規則定下來,大家會遵守。但現實中呢?數據跨境流動怎么監管?模型訓練用的數據從哪來的,怎么查?發現違規了怎么處罰?
這些問題沒有答案。或者說,答案在不同國家手里不一樣。
歐盟說高風險AI要審查,但審查標準誰定?美國說保持創新優勢,但優勢怎么定義?中國說內容要符合價值觀,但價值觀怎么量化?
每個國家都在用自己的邏輯解釋"安全",但大家的"安全"根本不是一個東西。
我最近一直在想,真正的問題可能不是AI本身有多危險,而是掌握AI技術的這些人彼此不信任。你的模型是不是在竊取我的數據?你的監管是不是在保護本國企業?我的規則是不是被你故意忽視?
這種不信任不會讓AI停下來,只會讓各國各自為政,各玩各的。
歷史上那些真正有效的國際規則——聯合國、世貿組織——都是在經歷過沖突之后才達成的。沖突讓各方明白,沒有規則大家一起完蛋。AI時代還沒有經歷過那種級別的沖突,沒有重大事故,沒有全面對抗,沒有共同毀滅的恐懼。
![]()
所以各國還在試探,在博弈,在爭取最有利的位置。但沖突遲早會來。也許是某個AI系統誤診導致大規模醫療事故,也許是某個AI金融模型崩盤引發連鎖反應,也許是某個AI武器系統出了岔子。
到時候大家才會真正坐下來,不是討論"怎么制定公平的規則",而是討論"怎么避免一起玩完"。
人類歷史上的進步,好像一直都是這么來的。
現在立的規矩,是給昨天的AI立的。等法案通過,AI早就不是那個AI了。
#國際熱點#AI治理#人工智能#地緣政治#技術規則
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.