![]()
在監(jiān)管任何一個行業(yè)時,首先要承認(rèn)一個樸素卻常被忽視的事實(shí):并不是所有現(xiàn)象都“管得住”。這個規(guī)律也適用于人工智能領(lǐng)域。有些趨勢源于技術(shù)進(jìn)步,或成本與收益的落差,或人性的本質(zhì),當(dāng)這些因素形成合力時,順勢而為往往比強(qiáng)行干預(yù)更合適。
北京大學(xué)國家發(fā)展研究院兼職教授、原法律經(jīng)濟(jì)學(xué)教授薛兆豐在《北大金融評論》發(fā)文表示,為了把人工智能發(fā)展問題看清楚,有意識地評估哪些趨勢是“終究管不住”的,哪些是“大致管得住”的,更準(zhǔn)確地說,始終把監(jiān)管引發(fā)的“邊際成本”及其帶來的“邊際收益”納入考慮,本身具有討論的價值。
本文完整版刊登于《北大金融評論》第25期。
在監(jiān)管任何一個行業(yè)時,首先要承認(rèn)一個樸素卻常被忽視的事實(shí):并不是所有現(xiàn)象都“管得住”。這個規(guī)律也適用于人工智能領(lǐng)域。有些趨勢源于技術(shù)進(jìn)步,或成本與收益的落差,或人性的本質(zhì),當(dāng)這些因素形成合力時,順勢而為往往比強(qiáng)行干預(yù)更合適。
當(dāng)然,監(jiān)管者也會為了監(jiān)管而監(jiān)管,畢竟那是他們的職責(zé);社會上的有識之士,也常常積極呼吁,畢竟他們心系公共福祉。但為了把問題看清楚,有意識地評估哪些趨勢是“終究管不住”的,哪些是“大致管得住”的,更準(zhǔn)確地說,始終把監(jiān)管引發(fā)的“邊際成本”及其帶來的“邊際收益”納入考慮,本身具有討論的價值。讓我試舉例說明。
大幅節(jié)省成本的技術(shù)發(fā)展,管不住
經(jīng)濟(jì)學(xué)家們善于區(qū)分“福利”(well-being)與“辛勞”(toil)。他們喜歡引用巴斯夏(Frédéric Bastiat)所舉的例子:光明本身是人類所追求的“福利”,而制造蠟燭只是獲取光明的“辛勞”手段。一旦陽光普照,光明免費(fèi)而易得,人們便會欣然享受日照,而不會為蠟燭工廠的倒閉感到惋惜。
今天,人工智能(AI)正在取代大量腦力勞動——尤其是中等水平的腦力勞動。像過去一樣,每當(dāng)技術(shù)變革來臨,全社會都在享受福利的提升時,被“解放”的人力資源卻要經(jīng)歷失業(yè)和彷徨。
我們有必要認(rèn)清人工智能在每個發(fā)展階段的局限和缺陷。比如,它的輸出建立在概率模擬而非邏輯推理之上,因此回答可能前后不一致,正確性難以保證,而且如果訓(xùn)練數(shù)據(jù)中摻雜虛假信息,它也會不斷放大這些偏差。又如,人工智能在專業(yè)知識的獲取上存在局限,許多高價值的資料受版權(quán)保護(hù),它無法隨意讀取,因此在某些領(lǐng)域的信息來源往往不夠全面。還有,人工智能雖然能夠高效處理信息,卻無法真正體驗其中的人文價值,更不能像人類一樣產(chǎn)生情感共鳴。
不過,這些局限和缺陷并非不可修正或不可將就。對于第一個問題,研究界正探索將概率模型與符號邏輯系統(tǒng)結(jié)合,使人工智能不僅能生成答案,還能通過邏輯驗證加以檢驗,從而降低“幻覺”的發(fā)生。對于第二個問題,限制更多來自法律與產(chǎn)業(yè)規(guī)則而非技術(shù)本身,如今已有不少專業(yè)領(lǐng)域的人工智能通過授權(quán)方式接入數(shù)據(jù)庫,提升了知識的可靠性與深度。至于第三個問題,人工智能確實(shí)無法取代人類的情感體驗,但它可以作為工具幫助人類更快地整理與篩選信息,從而讓人類將更多精力用于價值判斷與創(chuàng)造性表達(dá)。
關(guān)鍵是,人類從來不必等到某種工具成熟到能與自身能力媲美時才開始使用它。更何況人類自身的思維方式,就是邏輯推理、盲從模仿與直覺判斷的結(jié)合體。也并非人人都需要具備閱讀專業(yè)文獻(xiàn)的能力或掌握專業(yè)技能。工具本身具有價值中性,它們的作用反而可能正好為人類保留了價值判斷的自由空間——就像顯微鏡能夠幫助人看清細(xì)節(jié),但哪些細(xì)節(jié)重要,仍然要靠人類自己來判斷。
人工智能技術(shù)正在持續(xù)改進(jìn)之中,即便這一過程受到客觀條件的限制,使它無法突破某些根本性的鴻溝,但它對某些勞動力的替代作用——減輕辛勞、提升效率并帶來福利——仍然具有不可抗拒的力量,就像文化程度較低的人也完全能派上大量用場一樣。因此,若企圖通過限制人工智能的使用來減少人們在學(xué)習(xí)和工作中的辛勞,終究是難以奏效的。
![]()
隱私被出讓或被占用的趨勢,監(jiān)管將且戰(zhàn)且退
個人隱私信息是否被暴露,最終取決于它在不同情境下的使用價值。這與科斯定律的預(yù)測相契合:當(dāng)交易費(fèi)用相對較低或使用價值足夠高時,資源(這里就是指個人隱私信息)會流向更高價值的用途。
在當(dāng)今社會,幾乎只有那些依然生活在偏遠(yuǎn)山村、堅持使用現(xiàn)金并拒絕電話與互聯(lián)網(wǎng)的人,才能保有傳統(tǒng)意義上的隱私。絕大多數(shù)人為了享受技術(shù)帶來的便利,早已習(xí)慣于毫不猶豫地點(diǎn)擊各種應(yīng)用上的“同意并繼續(xù)”或“我已閱讀并同意”,從而在法律上接受隱私政策與用戶協(xié)議——其中往往包含對個人信息的收集、使用與共享的授權(quán)。
與此同時,政府也會基于公共安全、社會福利等理由,要求進(jìn)一步獲取和使用公民的個人信息。在商業(yè)與公共權(quán)力的雙重推動下,現(xiàn)代社會中的個人實(shí)際上已處于“半透明”狀態(tài)。人工智能強(qiáng)大的搜索、整合與分析能力,無疑會加速這一透明化進(jìn)程。
既然個人為了獲得便利,往往會主動向商業(yè)機(jī)構(gòu)交付部分隱私信息,而政府又常常出于維護(hù)公共利益的需要強(qiáng)制調(diào)取和使用其中的一部分,那么從長遠(yuǎn)來看,盡管保護(hù)隱私的呼聲和措施從未間斷,但隱私在越來越大的范圍內(nèi)被分享與利用的趨勢已難以逆轉(zhuǎn),相關(guān)的監(jiān)管將會且戰(zhàn)且退。
對人進(jìn)行更精準(zhǔn)區(qū)別對待的趨勢,管不住
個人隱私信息是否被暴露,最終取決于它在不同情境下的使用價值。這與科斯定律的預(yù)測相契合:當(dāng)交易費(fèi)用相對較低或使用價值足夠高時,資源(這里就是指個人隱私信息)會流向更高價值的用途。
長期以來,在群體中對不同個體區(qū)別對待,既能創(chuàng)造巨大的價值,也能節(jié)省可觀的成本。因此,尋找既易獲取又有用的區(qū)分標(biāo)準(zhǔn),一直是社會持續(xù)投入的重要方向。例如,教育支出中相當(dāng)一部分用于篩選資質(zhì);體檢費(fèi)用旨在降低保險群體中的搭便車成本;大數(shù)據(jù)分析用于提升廣告投放效率;招聘平臺的運(yùn)營則是為了提高雇傭關(guān)系的匹配度。既然這種對人進(jìn)行細(xì)分的努力從未中斷,就沒有理由在AI能夠提供更高效的區(qū)分分析時戛然而止。
當(dāng)企業(yè)開始借助AI參與甚至主導(dǎo)招聘和晉升決策時,人們起初或許會因感到被冒犯而憤慨,但很快便會意識到,更精準(zhǔn)的識別有利于自身。畢竟,若讓濫竽充數(shù)者搭便車,個人價值也會被他人的負(fù)外部效應(yīng)逐漸消耗殆盡。
真正的風(fēng)險在于錯誤的歧視——例如,如果人工智能僅憑血型、星座或邁爾斯–布里格斯性格類型指標(biāo)(Myers–Briggs Type Indicator,MBTI 系統(tǒng))之類的“理論依據(jù)”,就否決一名員工的晉升機(jī)會,這樣的做法是否應(yīng)該受到監(jiān)管?會不會觸發(fā)法律訴訟?觸發(fā)監(jiān)管和訴訟的可能性當(dāng)然不低,但本文更關(guān)注更長遠(yuǎn)的邊界。
事實(shí)上,約束這種錯誤歧視的主要力量,來自歧視者自身承受的高昂代價。換言之,即使缺乏法規(guī)監(jiān)管,競爭也會迫使人們盡量避免錯誤歧視,以免自身蒙受損失。然而,對個體進(jìn)行更精細(xì)區(qū)分的驅(qū)動力,以及這種區(qū)分帶來的收益,不會因為這個過程中可能出現(xiàn)的錯誤而消失。因此,錯誤的區(qū)別對待,實(shí)質(zhì)是信息錯誤,它會止于歧視者因此而蒙受的損失,但追求準(zhǔn)確的區(qū)別對待的努力,則難以被監(jiān)管管住。
![]()
人類借助工具或他人來輔助甚至替代自身決策的趨勢,管不住
在監(jiān)管任何一個行業(yè)時,首先要承認(rèn)一個樸素卻常被忽視的事實(shí):并不是所有現(xiàn)象都“管得住”。這個規(guī)律也適用于人工智能領(lǐng)域。有些趨勢源于技術(shù)進(jìn)步,或成本與收益的落差,或人性的本質(zhì),當(dāng)這些因素形成合力時,順勢而為往往比強(qiáng)行干預(yù)更合適。
決策往往伴隨高昂的斟酌成本,因此自古以來,人們就會依賴工具、委托他人,甚至訴諸隨機(jī)選擇來作出決定。然而,每一個決策都必然帶來后果,而這些后果總需要有人承擔(dān)。關(guān)于人是否擁有“終極自由意志”的爭論從未停止,也始終沒有定論,盡管如此,人類始終在為自己的決策后果負(fù)責(zé)。即便有人因缺乏責(zé)任能力而被免于追責(zé),事故的后果依然需要安置——或由其他當(dāng)事人承擔(dān),或由保險公司,乃至整個社會來分擔(dān)。
由此可見,人工智能的引入并沒有改變這一基本格局:無論決策如何產(chǎn)生,總有人要承擔(dān)后果。正因如此,人們會順理成章地依賴人工智能來輔助乃至取代自身決策,而社會也會依照“漢德公式”的原則,將責(zé)任分配給能夠以最低成本避免事故的一方(least cost avoider),而不在乎決策的方式本身。一個常被討論的案例——人工智能導(dǎo)航引發(fā)的交通事故責(zé)任——其實(shí)并不復(fù)雜:責(zé)任會在技術(shù)提供者、使用者、監(jiān)管者與保險公司之間,依據(jù)漢德公式進(jìn)行分?jǐn)偂R虼耍蕾嚾斯ぶ悄茌o助決策的趨勢,是不可逆轉(zhuǎn)的。
利用人工智能攫取金融市場利潤空間的嘗試,管不住
在成熟的資本市場中,價格呈現(xiàn)“隨機(jī)漫步”,并不是因為基本面無序,而是因為價格變化所反映的是信息的到達(dá)與被吸收的節(jié)奏。按照有效市場假說,公開信息會迅速計入價格,未來能夠帶來持續(xù)超額收益的,只能是不可預(yù)測的信息沖擊。人工智能的介入,本質(zhì)上只是信息處理與交易執(zhí)行的邊際改進(jìn):在微觀層面,它可以提升價格發(fā)現(xiàn)的速度與精確度,但改變的只是同類短線交易者之間的收益分配;在宏觀和長期層面,資產(chǎn)回報依舊取決于企業(yè)的盈利能力,因此對長期持有者而言,其凈效應(yīng)大體中性。
曼尼(Henry Manne)曾經(jīng)將這一邏輯推向極致。他主張放寬對內(nèi)幕交易行為的管制,甚至將它合法化,理由在于內(nèi)幕交易能加快真實(shí)信息的反映從而提升定價效率,而內(nèi)幕交易者的獲利可視為其信息生產(chǎn)的報酬。他們只是從短線對手盤中分走一部分利潤,并未對長期投資者的最終收益造成系統(tǒng)性傷害。
真正損害市場健康的,是阻滯或歪曲價格發(fā)現(xiàn)的行為。人工智能的出現(xiàn),只是讓我們重新審視“信息入價”所帶來的利潤分配:跑得更快的人自然會拿到獎杯;監(jiān)管若試圖阻止賽跑的本身,將會陷入疲于奔命的局面;而試圖通過規(guī)則去偏袒某一方,也未必是必要的。
如果您也渴望重構(gòu)AI時代的商業(yè)基因,探索企業(yè)AI轉(zhuǎn)型的落地方案,歡迎加入北大國發(fā)院企業(yè)家AI啟航班。掃描下方二維碼,獲取課程資料,詳細(xì)咨詢。
在這里,您將攜手頂級導(dǎo)師,完成從商業(yè)管理者到產(chǎn)業(yè)進(jìn)化引領(lǐng)者的認(rèn)知升維。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.