近些年來,我國人工智能相關技術和產業發展迅速,對經濟社會和人的全面發展帶來巨大影響,關于AI向善問題引起全社會高度關注。廣義的“善”是諸多社會科學研究的立意和主題,技術是否向善,根本在于是否促進經濟發展、社會進步和民眾幸福,也就是能否增進人類福祉。社會科學能夠深刻洞察并前瞻性地審視人工智能是否向善發展,可以從理念、評價標準、實現路徑和行為主體等維度,為此議題提供獨特的學術貢獻,讓我們更有能力從資源配置效率、社會福利損益、財富公平分配、公眾意愿感知評測以及維護社會和諧等方面判斷AI之善惡,為促進AI向善發揮重要作用。
何為善:社會科學的視角
長期以來,關于AI向善的討論已經很多,理念上的共識度相當高。諸如安全性、透明性、非歧視、可解釋、可追溯、公平公正、包容開放、尊重隱私、共享利益、以人為本、人類控制等理念不斷被重復討論,但對于如何實現、誰來執行這些“善”落地的討論較為不足,缺少一般性、穩定性和可度量性。這個問題需要更多放到社會科學知識體系內進行深入討論。
合理是善,即高效配置資源、增加社會福利和公平分配。經濟學將“合理”定義為資源配置效率提高、社會福利增加與相對公平分配,前者可用全要素生產率、收入增長等衡量,后者可用基尼系數等衡量。以此為標準,AI在提升全要素生產率和促進社會福利增長等方面有明顯貢獻,體現了技術的合理之善。經濟學為實現合理之善指明了路徑與主體:讓市場在AI相關領域發揮配置資源的決定性作用,這決定了企業是核心行為主體。同時,市場的有效運行離不開平等競爭、公平準入等良好環境,因此必須健全并完善市場規制。從公平分配角度看,AI目前尚存在“不善”影響:一方面財富更加集中在創新成功的少數人手中,另一方面AI產生的替代作用主要影響中低收入群體。解決這個問題,既需要AI企業的努力,也需要政府更好發揮作用,在以替代勞動為主要效果的AI技術應用和AI新創就業機會之間保持必要的平衡,并在完善長期社會保障制度方面更好地履行政府責任。
用益是善,即提供超出GDP邊界的消費者獲益。有些技術進步的收益無法用標準意義上的GDP增長來衡量,卻能帶來大量消費者剩余或稱之為用益,通俗地講就是給人民群眾帶來便利、幸福等諸多獲得感,AI技術在這方面的表現極為突出。首先,AI帶來了便利之善。基于網絡、AI模型和智能體的大量自助服務為使用者帶來很大便利,卻并沒有產生可以計入GDP的經濟行為,相反卻替代了原先可以計入GDP的服務,如自助訂票取代了訂票服務、免費網絡信息取代報刊訂閱、電子郵件取代郵寄信件等。文化領域尤為典型,娛樂平臺與生成式AI極大便利了消費,但市場規模并未同步增長。其次,AI帶來了平權之善。AI將海量普通消費者帶入原本只有高收入和高知識群體才普遍擁有的消費領域和創意領域。比如,在文化消費領域,文字閱讀能力差的消費者可以選擇讓AI提供或生成圖像和視頻等形態豐富的文化產品;在文化創意領域,普通人也能將靈感轉化為文化產品并與人分享。用益之善以免費、自娛、互助等方式呈現,無法用GDP增長或收入增加來衡量,但可通過條件價值評估法(詢問愿意支付多少)或意愿價值評估法(詢問放棄用益需補償多少)來測算。有研究表明,低收入者獲得的用益相對其收入的比例要顯著高于高收入者,表明AI確有平權和提升低收入者福利之善。但是,用益方面也存在“不善”影響。有些帶來一時心理愉悅感的消費會造成深層、長期的身心損害,例如沉溺網絡游戲、厚重的信息繭房導致認識受限等。對此,技術持有方和使用方應有克制和自律的責任,沒有應對之策就不要輕易做出這些不善之舉,發現不良后果就要以技術之力加以約束限制,這就如同產品生產者負有產品質量責任,不能出售危害健康和危及生命的產品。同時,還需要政府與社會協同給予應對處置。對那些全社會有共識的“惡”——如挑戰人類價值觀底線、侵害個人隱私、宣揚恐怖主義等言行或內容——公權力部門就要進行強力處置。
合意是善,即科技長期后果的社會共識度和接受度較高。社會科學多個學科都有關于“合意”的研究,例如社會學視閾中的社會共識代表著一種較高程度的社會合意。這里,我們將“具有最大公約數的社會共識和由此決定的社會團結”定義為合意,并用合意性來討論AI時代的科技倫理問題。科技倫理問題久已有之,但在AI時代特別突出,其性質有根本變化。過去我們講科學是“發現自然規律”,那些都是自然秩序中內生之規律,是自然界萬億年間各種力量博弈和演進形成的規律。現在AI努力構建自然界和人類社會演進中并不存在的狀況,創造新的秩序,不少探索意在改變人類自然狀況或者人類社會狀況。此種情景下,人類對某種科學發展方向是否認同就變得很重要,這就是合意性。當科學家們試圖改變經千萬年演進形成的人類特征和自然規律時,公眾必須知情和參與,表達合意與否。這種討論或許難以用類似意愿價值評估法來推進,往往需要公共透明開放的集體性磋商。科學家有責任向公眾說明其全部可能后果,而不僅僅講其有利之處,同時允許全社會進行充分討論,形成具有最大公約數的社會共識。各方充分表達并持續博弈才能找到合意性的趨近路徑和現實位置,不能聽由技術邏輯成為主導因素。
機制探討:各方協作促進AI向善
AI之善不會自動發生。向善的激勵來自何方?機制如何設計?實踐表明,與“向善”相容的激勵機制和導致“不善”的因素在多個層面都存在,AI時代“不善”和“向善”的力量都與之前有所不同,“向善”既需要自我約束也需要社會約束。
第一,AI創新與生產者的“向善”激勵相當顯著而且有效。AI需要非常大規模的應用,如果其“善”得不到社會共識甚至被指為“不善”,是不可能被很好地長期應用的。全社會對AI安全和倫理問題的高度關注,給企業和創業者帶來了無處不在、強大且持續的壓力與價值觀導向。信譽維護要求生產者“向善”,被社會認為“不善”時需要快速回應調整。從這個角度講,“向善”激勵機制在這個時代是泛在而強大的。
第二,分布式治理是AI向善的治理特色。AI和數據產業與以往產業最重要的不同是應用的場景化。過去市場資源配置是一對一的,但AI時代的資源配置是簇群式、場景化的,我們將其定義為分布式資源配置。在分布式資源配置中,利益和理念相關者針對特定場景結成共同體,市場和社會主體自主選擇特定交易與合作對象。并且,每個場景都有自身的規則,例如平臺有各自的交易規則、退貨規則、違規懲罰規則等,規定了何為本場景中的“善與不善”,也就是參與者能做什么不能做什么。參與者遵循這些規則,使這些共同體同時具備了治理功能,這可以稱之為分布式治理。
第三,公權力的治理必不可少。有些后果嚴重的“不善”不能交給市場和社會博弈,而是應由政府明確“不得為”的負面清單。例如,不得未經用戶同意侵犯用戶隱私,不得發布虛假信息、恐怖主義、仇恨言論等。要讓市場和社會治理有效,政府最重要的職能就是強制公開透明。一方面,企業必須讓消費者可以清晰看懂用戶協議,協議細節的公開透明非常重要;另一方面,凡是與人類自身和人類社會相關的創新,提供者要向社會和公眾講清楚在做什么以及可能的后果。此外,政府發布指南和優秀案例、批評不當做法、約談相關企業等,這些都對AI向善有顯著引導作用。
作者:江小涓,系中國社會科學院大學教授、國家數據專家咨詢委主任委員
來源:光明日報
新媒體編輯:常暢
如需交流可聯系我們
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.