文?/?劉曉春 馬明遠
人工智能技術在算力、算法、數據三要素的共振下,正重塑社會生產方式和產業格局。多國基于場景、風險等標準對人工智能技術發展與安全治理做出法律、政策安排,其典型代表為歐盟《人工智能法案》的出臺。我國的人工智能立法和治理體系也在日益完善。巴西于2024年醞釀的《人工智能法案》法案,目前正在實質性推進立法進程。如獲通過,有望成為拉美地區首個建立綜合AI監管體系的國家,其治理框架既借鑒歐盟經驗,又結合農業數字化、教育普惠等本土需求,為發展中國家提供了“監管—創新”平衡的參考樣本。
一、巴西人工智能產業發展與立法概況
巴西作為拉丁美洲最大的經濟體和人口最多的國家,其人工智能產業的發展展現出較大的市場潛力與獨特的發展態勢,目前主要處于技術應用環節,在技術開發方面尚未展現出明顯優勢。巴西互聯網指導委員會2021年的調查數據顯示,巴西有65707家公司引入了人工智能技術,占全國公司總數的13%;在政府層面,45%的聯邦機構以及22%的國家組織正在運用人工智能。因此,巴西對于人工智能的監管需求也在呈現出來。
自2019年起,巴西立法機構圍繞人工智能治理展開探索,形成一系列法案,逐步形成覆蓋基礎、原則、指導方針等倫理框架以及逝者圖像和音頻、專業輔助系統等特定場景的立法格局。盡管初期法案因技術認知差異、利益協調困難未能通過,但為后續立法積累了重要經驗。
2023年,由法律專家委員會制定的《人工智能法案》(以下簡稱《法案》)的提出標志著巴西在該領域形成的較為廣泛共識。該法案整合歐盟風險分級理念與本土發展需求,通過“風險分類+全周期治理”框架,試圖解決早期立法的碎片化問題。2024年12月10日,參議院全體會議上《法案》替代性文本獲得通過,并于2025年3月報送至眾議院,巴西有望確立人工智能系統開發、運行與應用的國家性指導規范,為人工智能技術的發展奠定法律基礎。
二、巴西人工智能治理框架
《法案》包含總則、權利、風險分類、人工智能系統管理、民事責任、良好行為規范和治理、嚴重事件報告、高風險人工智能公共數據庫、監督和檢查、促進可持續創新、公共當局的職能以及解釋和過渡條款等十二章內容,構建了以權利保障、風險規制和激勵創新為核心的人工智能治理框架。該框架注重保護個人或群體的基本權利,要求人工智能系統相關方履行禁止歧視、保護個人信息和隱私等義務,建立風險分類機制并制定相應管理措施,同時設立國家人工智能監管和治理系統等監管機構。此外,通過監管沙盒營造良好監管環境,設置數據挖掘合理使用制度,并為小微企業和初創企業提供創新激勵,以保障人工智能產業的安全、可靠和持續發展。
(一)以人為本:保護基本權利與促進社會福祉
1.“基于原則”的治理
在人工智能快速發展的當下,“基于原則”的規制路徑聚焦于構建人工智能發展的基礎性價值框架,確立公平、正義、自由等倫理道德觀念作為指導原則與治理目標,以此引導企業進行自我管理。“原則”與《法案》中規定的隱私與個人信息保護、不受非法歧視等基本權利形成映射關系,為人工智能系統研發部署劃定了價值基線。
《法案》構建的人工智能治理框架包含了十八條原則,相較于歐盟《人工智能法案》更為具體,為人工智能的開發、部署和應用提供了指引。其中“包容性增長、可持續發展和社會福祉”原則、“禁止或者濫用歧視”原則以及“全面保護兒童和青少年”原則分別從發展目標、制止算法偏見、未成年人保護角度闡釋對于基本權利的保護。
針對潛在的失業和社會福利問題,《法案》提出,在人工智能治理過程中需要重視其對勞動者所產生的負面影響,鼓勵制定培養計劃,不斷提高勞動者技能以適應技術的發展,進而促進包容性增長、可持續發展,提高社會福祉。同時,根據反歧視的有關規定,確立“禁止或者濫用歧視”原則,禁止人工智能系統開發、部署和利用過程中,以濫用或非法的方式,基于個人特征,對法律中規定的一項或者多項權利的承認、享有或行使加以區別、排斥或偏袒,避免人工智能系統因算法偏見等因素對不同群體造成不公平對待。此外,《法案》也注重面向人工智能的未成年人保護,考慮到未成年人的脆弱性,要求促進和保護未成年人等弱勢群體的權利,明確禁止開發、部署和使用用于制作、傳播或者協助制作描述或者表現對未成年人的性虐待或者性剝削的材料的人工智能系統,并且將可能會對未成年人生理、心理和道德造成負面影響的系統作為確定新的高風險人工智能系統的標準之一。
2.“基于權利”的治理
《法案》確立的AI監管框架以巴西憲法權利為基礎,保障受人工智能系統影響的個人和群體享有知曉交互方為人工智能的權利、隱私權和數據保護權、不受非法或濫用歧視和糾正偏見的權利。為保護可能受高風險人工智能系統影響的個人或群體,法律還賦予其額外的三項權利。第一,解釋權,即用戶有權要求對AI系統做出的決策、建議或預測進行解釋。該解釋需根據人工智能系統的復雜程度和涉及的主體,在合理的時間內以簡單、易懂和適當的語言免費提供。第二,異議和審查權,即用戶有權對AI系統的決定、建議或預測進行質疑,并要求人為審查;第三,審查權,即在考慮技術發展背景和現狀的情況下,對智能系統決策享有人為審查的權利。
然而,這額外的三項權利須受到一定限制。一方面,若人工智能作出的決定、建議或預測涉及商業秘密,其解釋權應有所限制;另一方面,行使權利需考慮技術現狀,高風險人工智能系統開發者、經銷商及應用者應始終采取有效、適當的措施,確保風險可控且符合技術實際。事實上,《法案》中許多權利并非全新,而是與巴西《通用數據保護法》等已有法律中確立的權利存在關聯。
![]()
(二)風險導向:精準監管與分類治理
《法案》采用基于風險等級劃分的初步評估制度和作為問責工具的算法影響評估制度兩大工具,將具有不透明、復雜性、過程不可控的人工智能系統類型化,實現精準監管。此外,《法案》定義了通用人工智能和生成式人工智能,提出開發者要在投放市場前進行風險評估,依法合規采集處理數據并公布數據集摘要等要求。
1.過度風險人工智能
《法案》要求在投入市場或投入使用之前,所有人工智能系統都必須經過初步評估,并依據人工智能對受影響個人或群體產生不利影響的可能性與嚴重性等因素,將人工智能的風險等級劃分為“過度風險人工智能”“高風險人工智能”以及“其他人工智能”。
《法案》第13條明確禁止開發和使用可能嚴重損害個人或群體基本權利、健康、安全等且風險極高的“過度風險人工智能系統”,違者將面臨嚴厲處罰。具體而言,包括四種“過度風險人工智能系統”類型。一是禁止開發、實施或使用旨在侵害健康、安全等基本權利且危險性高的系統,如故意煽動個人或群體自我傷害或危害他人。二是禁止公共機構非法或不公平地依據自然人的社會行為或個性特征進行計分以評估、分類、排名,影響其獲取商品、服務或公共政策制定。三是禁止在自主武器系統中開發、實施或使用人工智能,國防目的的人工智能開發和使用除外。四是禁止在公共開放空間的遠程生物識別系統中使用人工智能,刑事領域有一定豁免。
2.高風險人工智能
《法案》第14條,考慮系統對可能受到影響的個人或群體產生不利影響的可能性和嚴重性,將涉及重要基礎設施、教育、就業、社會保障、公共服務、司法、自動駕駛、衛生醫療、移民和邊境管理等諸多重要領域的人工智能系統視為高風險系統。高風險人工智能系統的界定并非一成不變,主管部門將與國家人工智能監管和治理系統合作,在提前通知的前提下,可對人工智能系統的重新分類,并依合理方式開展算法影響評估。
對于開發者和應用者而言,在向市場推出或投放高風險人工智能系統時,除保證系統安全和受影響的人或者群體的權利外,還需對系統的安全性、準確性以及穩定性做出評估并持續更新其記錄。如果系統存在導致歧視的風險,需要采取措施來減輕和防止歧視性偏見。此外,對于生成合成內容,應當進行標識,以助于驗證內容真實性、來源以及追蹤其可能經歷的任何修改或傳輸過程。
(三)創新激勵:營造有利于技術發展的環境
《法案》從監管環境、勞動保障、市場激勵、可持續發展等多個方面激勵人工智能技術創新。其中“監管沙盒”和版權及鄰接權規定值得關注。
1.監管沙盒
巴西電信監管機構、金融監管機構在《法案》之前就進行了沙盒實驗探索,地方層面也開始制定監管沙盒計劃。在《法案》中,主管當局及部門監管機構將自主或應請求為符合條件的實體設立監管沙盒,使相關實體能在限定時間內開發測試創新型人工智能系統。這一機制通過臨時豁免部分監管限制,為技術驗證提供靈活空間。法案著重扶持小微企業、初創企業及公私科研與創新機構進入測試環境,并構建監管成本減免機制,降低創新準入門檻。同時,主管部門有權決定限制或中斷高風險試驗,提供基本權利、消費者權益及安全性三方面的保障。此外,試驗參與方須依法承擔因測試環境中進行的實驗對第三方造成損害的民事賠償責任,該規定與沙盒的監管豁免形成責任平衡。
2.訓練數據版權保護與非商用數據挖掘合理使用
人工智能的發展相當程度上依賴數據資源,然而獲取訓練模型的相關數據權利人的許可存在巨大的交易成本,企業未經許可使用相關數據資源造成內容創作者與系統開發者之間的緊張關系。巴西法案力求在促進創新與知識產權保護之間取得平衡。《法案》要求人工智能系統開發者對其在系統開發過程中使用受版權和鄰接權保護的內容進行公示,同時,賦予版權和鄰接權人禁止他人在系統開發中使用其作品的權利。此外,對于在人工智能系統的挖掘、培訓、開發過程中使用他人作品的許可費制度做出安排。
《法案》規定,科研機構、教育機構、博物館、公共檔案館及圖書館等非商業科研機構可利用受保護內容進行文本和數據挖掘,以開發和研究人工智能系統,這不構成對作者權利及鄰接權的侵犯。但需遵循以下三大限制條件:一是訪問內容必須具有合法性;二是不具有商業目的;三是對受保護內容的利用程度應為實現目標所必需,且不影響權利人的經濟利益,不與作品和受保護內容的正常利用產生競爭關系。
〔本文為中國社會科學院“數字化決策與國家治理”綜合實驗室(編號:2024SYZH010)項目的階段性成果。
作者單位:中國社會科學院大學互聯網法治研究中心、中國社會科學院大學法學院〕
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.