----技術從試驗場走向城市街道與公眾生活,風險與規則一起長出來
引言
2025年的AI爭議,不再只是“技術圈的話題”,而是真實世界的安全、權利與信任:自動駕駛在城市路網里反復“試錯”,生成式AI與版權的邊界被法庭一條條刻劃,面部識別在便利與侵犯之間拉扯,算法偏見則把舊的不平等“數字化再生產”。本文以安全—版權—隱私—公平四條線索,梳理今年最具代表性的事件與判例,并給出可執行的治理與自保清單。
一、自動駕駛:安全事件與監管回路
![]()
安全與風險
- 軟件召回與安全缺陷:5月,美國NHTSA公告Waymo召回約1,200臺無人車,起因是軟件在低速場景下可能撞上鏈條、閘門等路障。Waymo已通過OTA在2024年末完成修復并備案。
- 事故調查與合規風暴GM Cruise因2023年行人拖拽事故后,對監管提交了不完整/誤導的材料,2024年與檢方達成和解,承認提交虛假報告并繳納罰金。
- “補救是否足夠”的復查特斯拉2023年底對Autopilot進行大規模召回升級,但NHTSA在2024年再次啟動召回補救有效性評估,理由是升級可能不足以防止可預見的誤用
- 試點機器人出租車的早期問題:2025年6月,特斯拉在奧斯汀的Robotaxi測試被媒體與網友拍到壓線、誤入車道、與警車交互異常等問題,當地與聯邦監管機構表示將持續關注。
要點:自動駕駛的商業敘事必須被可驗證的安全證據與透明的缺陷處理對齊,否則就會在“城市即試驗場”的壓力下,被召回、停運與訴訟反復拉回現實。
二、生成式AI×版權:幾道關鍵“分水嶺”
- 訓練數據的合法性Thomson Reuters v. ROSS一案中,法院認定為訓練法律檢索AI而**復制Westlaw摘要(headnotes)**構成侵權,這被視作AI訓練版權責任的早期標桿之一。
- “轉化性使用”與“盜版來源”Bartz v. Anthropic中,法官一方面肯定大規模閱讀作品進行模型訓練具有高度轉化性,另一方面指出從影子圖書館獲取的盜版內容仍可能構成侵權;8月此案以和解收束。
- 印度首例媒體訴訟:印度新聞社ANI起訴OpenAI,指控其在訓練與輸出中侵犯版權并造成名譽受損,顯示新興市場也在形成司法樣本。
- 中國的獨創性門檻:2025年多起判決明確:**AI生成圖像在具備“作者智力投入+個性化表達”**時可獲著作權保護。
要點:**“來源合法+過程合規+結果可溯”**正成為全球共識;訓練集的來源審計與存證,將直接決定風控成本。
三、面部識別:隱私邊界與治理實踐
![]()
- 濫用的代價:美國多地警方僅憑人臉比對線索抓捕引發冤錯;到2025年,至少8起被媒體確認的錯捕案例進入公眾視野。
- 中國監管收緊《人臉識別技術應用安全管理辦法》自2025年6月1日施行,明確適用范圍、處理規則與備案要求;網信辦隨后發布應用備案通知,10萬人臉信息即觸發備案門檻。
- 地方治理樣本:上海開展專項整治,提出**“公共場所不刷臉為原則、刷臉為例外”**的目標,數千家酒店、商場、體育與衛生場所完成自查整改。
要點:“默認不采集、必要才采集”正在制度化;平臺與場館需要等價替代方案(身份證/二維碼),并對采集目的、期限與安全措施可被審計。
四、算法偏見:從招錄到司法的“數字化放大”
![]()
- 招聘:亞馬遜2018年內部測試的簡歷篩選模型因對女性系統性不利而被終止,成為行業早期警示案例。
- 司法:對美國COMPAS量刑輔助系統的分析顯示,對未再犯的黑人被告“高風險”誤判概率約為白人的兩倍,引發廣泛爭論并催生“可解釋、公平”評估規范。
要點:偏見既來自歷史數據的失衡,也來自指標選擇與閾值設定;“只看準確率”不足以證明公平。
五、規則在成形:全球與中國的“紅線/底線”
![]()
- 歐盟《AI法案》:對高風險系統設定強制合規與最高7%全球營收或3,500萬歐的罰款上限,確立“風險分級+強制審計”的監管框架。懷特凱斯律師事務所歐盟人工智能法案
- 中國治理組合拳:在既有網安法/數安法/個保法框架下,通過人臉識別辦法、視頻圖像條例等專項規則補位,強調目的限定、最小必要、單獨同意、嚴格保護
六、如何“把風險關進流程”:三張簡表
1)技術側·最小合規工單
- 訓練/推理數據臺賬:來源、授權、保留周期、刪除路徑。
- 偏見掃描:按人群切分Accuracy/TPR/FPR,觸發>15%差異即停訓復查。
- 在線守門:高風險場景(駕駛/醫療/金融)啟用人類在環與回滾開關。
2)法務側·四到位
- 訓練來源證明(采購/授權/公開許可)到位;
- 模糊用途描述改為場景白名單
- 對外披露“模型能力邊界與已知局限”;
- 應急機制(召回、停用、告警)與責任分攤寫入合同。
3)個人與機構·自保要點
- 不被強制刷臉:索要非生物識別替代方案;保留文字/影像證據,可向網信部門投訴。政府網站
- 內容創作者:保存創作過程證據(Prompt、版本稿、時間戳);投放平臺簽訂訓練排除/限制條款
- 企業用戶:在采購AI前做影響評估(AIA)與數據保護影響評估(DPIA),高風險業務引入第三方審計。
結語
技術在狂奔,倫理并非拉后腿,而是讓技術活得更久的骨架。回望今年幾起關鍵事件:召回與停運在告訴我們“安全是一號位”;法庭在教我們“從哪來、怎么用才算干凈”;治理在強調“默認克制”。當規則與能力一起生長,AI才有資格成為基礎設施,而不只是一次又一次的“試驗”。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.