<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網(wǎng)易首頁(yè) > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

      人工智能工具如何在政策制定中發(fā)揮作用

      0
      分享至


      2025年5月15日,由蘭德公司、史汀生中心和托尼·布萊爾全球變革研究所共同組織的“人工智能輔助政策制定項(xiàng)目”(AIPP)研討會(huì)在華盛頓特區(qū)舉辦。會(huì)議旨在回答一個(gè)核心問(wèn)題:人工智能工具如何在政策制定的整個(gè)生命周期中發(fā)揮作用,并幫助應(yīng)對(duì)日益復(fù)雜的公共挑戰(zhàn)?研究結(jié)果揭示了人工智能工具在起草文案、數(shù)據(jù)分析、簡(jiǎn)化語(yǔ)言等方面的巨大潛力,但也指出其在推理、長(zhǎng)期規(guī)劃和倫理信任方面的局限性。啟元洞見(jiàn)編譯整理了其中的核心內(nèi)容,供讀者參考。

      2025年5月15日,人工智能輔助政策制定項(xiàng)目(AIPP)在華盛頓特區(qū)舉辦了為期一天的研討會(huì),重點(diǎn)討論人工智能工具在政策制定生命周期各個(gè)方面的作用。此次活動(dòng)由蘭德公司(RAND)、史汀生中心(Stimson Center)和托尼·布萊爾全球變革研究所(Tony Blair Institute for Global Change)共同組織,匯集了來(lái)自政策研究、政策制定和技術(shù)等不同背景的56名與會(huì)者。

      一、會(huì)議一:定義人工智能支持的政策

      會(huì)議一通過(guò)梳理政策制定工作流程,界定了人工智能輔助政策制定的范疇。

      (一)政策制定生命周期中還有哪些其他組成部分(或任務(wù)類別)?

      早期政策活動(dòng),例如監(jiān)測(cè)媒體動(dòng)態(tài)、收集官員聲明、識(shí)別新出現(xiàn)的問(wèn)題,都有助于在正式?jīng)Q策開(kāi)始前,塑造政策議程。與會(huì)者討論了與利益相關(guān)方互動(dòng)相關(guān)的公眾輿論調(diào)查、情感追蹤等任務(wù),以及梳理關(guān)鍵參與者、提供培訓(xùn)、準(zhǔn)備證詞以及在研究后征集反饋等其他任務(wù)。在分析類任務(wù)中,重點(diǎn)提到了成本效益分析、反事實(shí)分析、預(yù)算影響評(píng)分和歷史分析。此外,政策制定生命周期中的其他環(huán)節(jié)包括建立聯(lián)盟、就新政策開(kāi)展宣傳和教育、通過(guò)議程設(shè)置來(lái)確定需要政策響應(yīng)的議題、以特定受眾易于理解的格式發(fā)布研究成果和報(bào)告等等。與會(huì)者也指出,政策制定過(guò)程通常是非線性且反復(fù)迭代的,這可能很難用線性的工作流程來(lái)概括。

      (二)人工智能系統(tǒng)目前能夠承擔(dān)哪些決策任務(wù)?

      目前人工智能工具已被用于起草備忘錄和立法文本、總結(jié)聽(tīng)證會(huì)和研究文件、分析利益相關(guān)方的立場(chǎng),以及簡(jiǎn)化復(fù)雜或過(guò)于法律化的語(yǔ)言。人工智能還可以在不同格式間進(jìn)行轉(zhuǎn)換,例如將要點(diǎn)轉(zhuǎn)換為立法文本,并生成格式化的內(nèi)容。大型語(yǔ)言模型可以支持構(gòu)思和頭腦風(fēng)暴,進(jìn)行高頻次的試錯(cuò),并綜合處理大量的知識(shí)。一些系統(tǒng)能夠整合多場(chǎng)聽(tīng)證會(huì)上的發(fā)言,并模擬回應(yīng)或反建議,以使立法獲得更廣泛的接受。人工智能還可以進(jìn)行知識(shí)管理。然而,人工智能在推理質(zhì)量、優(yōu)先次序、識(shí)別薄弱證據(jù)、長(zhǎng)期規(guī)劃、決策以及隱性知識(shí)以下方面仍存在局限性。人工智能在說(shuō)服力方面具有優(yōu)勢(shì),但也容易出現(xiàn)認(rèn)知偏差,例如傾向于根據(jù)信息的數(shù)量而非相關(guān)性來(lái)判斷其重要性,這可能會(huì)壓制少數(shù)派的聲音。此外,人工智能無(wú)法預(yù)測(cè)決策的長(zhǎng)期后果,也無(wú)法根據(jù)具體情境做出決策。

      (三)哪些用戶可以利用人工智能工具進(jìn)行決策?

      可能將人工智能工具用于政策制定的用戶群體包括立法助理、監(jiān)管人員、政策研究員、初創(chuàng)企業(yè)創(chuàng)始人、倡導(dǎo)團(tuán)體和政治候選人。未來(lái)人工智能的主要用戶將是工作人員和輔助人員,而不是決策者本人,因?yàn)樗麄冃枰獙忛喓吞幚泶罅课谋炯靶畔ⅰ?/strong>與會(huì)者還探討了小型辦公室或社區(qū)組織等資源不足的機(jī)構(gòu)如何利用人工智能,來(lái)獲取那些以往只有資金雄厚的機(jī)構(gòu)才能使用的工具和見(jiàn)解。對(duì)于許多這類用戶來(lái)說(shuō),人工智能被視為提高生產(chǎn)力的工具,而非取代人力的工具。

      (四)不同角色會(huì)遇到哪些適用機(jī)遇和挑戰(zhàn)?

      與會(huì)者討論了許多機(jī)遇,包括讓日?;蚋袷交蝿?wù)實(shí)現(xiàn)自動(dòng)化、加快起草和分析工作、促成新的利益相關(guān)方參與方式、讓高質(zhì)量分析得以普及,并可能加速利益相關(guān)方之間的反饋循環(huán),從而更快地實(shí)施政策。一些與會(huì)者討論了人工智能如何實(shí)現(xiàn)個(gè)性化,并通過(guò)找出共識(shí)立場(chǎng)或生成定制化、有說(shuō)服力的內(nèi)容來(lái)幫助談判。不過(guò),面向政策領(lǐng)域的與會(huì)者也指出了一些挑戰(zhàn),包括適用規(guī)則不明確、隱私和法律方面的顧慮、對(duì)產(chǎn)出結(jié)果的信任度不一,以及需要對(duì)人工智能模型進(jìn)行長(zhǎng)期維護(hù)和校準(zhǔn)。此外,開(kāi)發(fā)政府專用工具對(duì)公司來(lái)說(shuō)缺乏足夠的經(jīng)濟(jì)吸引力,因?yàn)檎A(yù)算有限,而且相比商業(yè)應(yīng)用,其潛在客戶群要小得多,難以實(shí)現(xiàn)規(guī)?;?。

      如果沒(méi)有重新培訓(xùn)或機(jī)構(gòu)支持,將人工智能整合到現(xiàn)有工作流程中會(huì)非常復(fù)雜,而且其在公共和私營(yíng)部門(mén)的普及情況也大相徑庭。

      二、會(huì)議二:人工智能的核心能力和系統(tǒng)要求

      會(huì)議二探討了人工智能在政策制定中的現(xiàn)有和潛在應(yīng)用,重點(diǎn)討論了工具能力、近期自動(dòng)化機(jī)會(huì)以及對(duì)數(shù)據(jù)和信息流的考量。

      (一)目前在政策制定或相關(guān)工作流程中,使用了哪些人工智能工具??jī)?yōu)缺點(diǎn)是什么?

      與會(huì)者們討論了人工智能工具如何日益融入政策制定工作流程,為從合規(guī)到研究規(guī)劃的各類任務(wù)提供支持。比如,人工智能可用于應(yīng)對(duì)出口管制、識(shí)別許可代碼,并作為定制化溝通的“傳聲筒”。內(nèi)置在常用應(yīng)用程序中的人工智能工具,其普及率遠(yuǎn)高于那些獨(dú)立存在的工具,集成式人工智能工具具有優(yōu)勢(shì)。通用大型語(yǔ)言模型,能夠輔助進(jìn)行背景研究、構(gòu)建文獻(xiàn)綜述和規(guī)劃項(xiàng)目工作流程。然而,由于隱私限制,輸入信息往往缺乏上下文,用戶對(duì)于幻覺(jué)(hallucinations)造成的錯(cuò)誤也依然保持謹(jǐn)慎。

      在政策研究環(huán)境中,通用人工智能工具能夠支持溝通、撰寫(xiě)報(bào)告和網(wǎng)站開(kāi)發(fā)等等,尤其是在缺乏專用工具的情況下。在慈善領(lǐng)域,由于其感知價(jià)值較低且難以捕捉隱性知識(shí),人工智能的采納受到了限制。例如,政策制定者的公開(kāi)立場(chǎng)往往不能完全代表他們的實(shí)際信念,而他們的行動(dòng)也常常受到其心照不宣的信念所影響。與會(huì)者討論了項(xiàng)目經(jīng)理如何利用人工智能進(jìn)行協(xié)作式知識(shí)創(chuàng)造和評(píng)估數(shù)據(jù)需求。一位與會(huì)者提到,英國(guó)等國(guó)政府使用諸如Consult和Redbox等工具來(lái)進(jìn)行公眾參與和立法摘要。盡管有如此多的應(yīng)用,與會(huì)者仍指出其在可靠性、有效性、數(shù)據(jù)獲取、工具功能明確性以及使用授權(quán)方面的局限性。

      (二)在工作流程中,哪些任務(wù)適合由人工智能來(lái)自動(dòng)化?

      與會(huì)者指出了政策制定工作流程中幾項(xiàng)特別適合人工智能自動(dòng)化的任務(wù)。其中一個(gè)例子是對(duì)選民需求進(jìn)行分類和處理。人工智能可以通過(guò)監(jiān)測(cè)背景變化、幫助追蹤新問(wèn)題及長(zhǎng)期存在的問(wèn)題來(lái)支持這一過(guò)程。與會(huì)者們討論了在某些場(chǎng)景下,聊天機(jī)器人如何被探索用于替代傳統(tǒng)的選民通信,這也引發(fā)了一個(gè)問(wèn)題:人工智能是否能以人類員工所應(yīng)有的判斷力和理解力做出回應(yīng)。

      那些被描述為更具確定性和格式化的任務(wù),比如根據(jù)數(shù)據(jù)生成基礎(chǔ)可視化圖表,是很有希望實(shí)現(xiàn)自動(dòng)化的目標(biāo)。這類任務(wù)的自動(dòng)化能讓員工將更少的時(shí)間花在初稿上,而將更多時(shí)間用于優(yōu)化和解讀。

      (三)如何設(shè)計(jì)人工智能系統(tǒng),才能恰當(dāng)?shù)貦?quán)衡和整合人工生成數(shù)據(jù)和合成數(shù)據(jù)?

      與會(huì)者指出了人工生成數(shù)據(jù)(通常雜亂無(wú)章、缺乏結(jié)構(gòu))和合成數(shù)據(jù)(更整潔但可能不完全可信)之間的權(quán)衡。

      與會(huì)者還討論了用于訓(xùn)練人工智能模型的數(shù)據(jù)人口統(tǒng)計(jì)學(xué)特征會(huì)如何影響模型輸出:這些數(shù)據(jù)是否能代表選民群體,或者是否過(guò)度或不足代表了某些群體?這些差異引出了一個(gè)關(guān)鍵問(wèn)題:在人工智能輔助的決策中,到底代表了誰(shuí)的視角?

      調(diào)查和監(jiān)測(cè)系統(tǒng)或許可以作為支持人工智能輔助決策的一種模式。這類系統(tǒng)收集大規(guī)模反饋,通常用于監(jiān)測(cè)對(duì)時(shí)事的反應(yīng)。與會(huì)者強(qiáng)調(diào)了在這些系統(tǒng)中進(jìn)行人工校準(zhǔn)的重要性,并指出即使是設(shè)計(jì)精良的模型,也需要人工監(jiān)督來(lái)確保數(shù)據(jù)得到正確的解讀。

      (四)理想情況下,系統(tǒng)應(yīng)該在什么樣的信息環(huán)境中工作,并能跨環(huán)境運(yùn)行?

      與會(huì)者反思了跨組織、利益相關(guān)方和個(gè)人之間的數(shù)據(jù)訪問(wèn)和共享問(wèn)題。討論了人工智能系統(tǒng)需要在數(shù)據(jù)稀缺、數(shù)據(jù)收集成本高昂以及現(xiàn)有數(shù)據(jù)集存在缺口的環(huán)境中運(yùn)行,強(qiáng)調(diào)從當(dāng)?shù)厣鐓^(qū)和專家那里收集數(shù)據(jù)所面臨的挑戰(zhàn)。他們指出,自動(dòng)化可以協(xié)助完成低層次的外聯(lián)任務(wù),并生成正確的問(wèn)題。與會(huì)者指出了有效利用人工智能的障礙,例如數(shù)據(jù)集來(lái)源中可能存在的偏見(jiàn),以及在與非在線社區(qū)互動(dòng)時(shí)作用有限。

      (五)人工智能輔助政策制定還需要哪些新的能力?

      現(xiàn)有的人工智能系統(tǒng)無(wú)法整合隱性知識(shí)或獲取非公開(kāi)信息,因此必須設(shè)計(jì)方法來(lái)彌補(bǔ)這些局限性。人工智能在海量文本中搜索特定信息(例如查找先例)具有必要性。建議開(kāi)發(fā)人工智能客戶關(guān)系管理(CRM)系統(tǒng),為議員辦公室進(jìn)行個(gè)性化定制,幫助工作人員追蹤議員之間的關(guān)系。

      政策制定者需要培養(yǎng)相關(guān)技能,尤其是在有效提示、確定適當(dāng)用例以及管理偏見(jiàn)和幻覺(jué)等方面。關(guān)于人工智能使用許可的政策尚不明確,制定明確的人工智能使用政策或許會(huì)有所幫助,特別是對(duì)于國(guó)會(huì)工作人員而言。

      三、會(huì)議三:實(shí)施考量

      會(huì)議三重點(diǎn)討論了人工智能政策工具的實(shí)施考量,研究了如何在應(yīng)對(duì)潛在風(fēng)險(xiǎn)和意外后果的同時(shí),確保其可信度和符合民主規(guī)范。

      (一)我們?nèi)绾未_保人工智能政策工具值得信賴、符合民主規(guī)范并被大眾接受?

      對(duì)人工智能政策工具的信任取決于其透明度、問(wèn)責(zé)制以及是否符合最終用戶的需求。工具應(yīng)清晰地展示其得出結(jié)論的過(guò)程,包括推理邏輯和數(shù)據(jù)來(lái)源,以便政策制定者能夠理解輸出結(jié)果。

      由于各州之間以及聯(lián)邦與州之間的法律法規(guī)差異很大,人工智能工具必須足夠靈活,以反映這種多樣性。與政策制定者、利益相關(guān)方和受影響的社區(qū)共同設(shè)計(jì)這些工具至關(guān)重要,這能確保工具反映現(xiàn)實(shí)世界的約束和價(jià)值觀。人工智能工具可以支持向更具迭代性、以成果為導(dǎo)向的立法模式轉(zhuǎn)變,從而使立法能夠根據(jù)實(shí)施后的反饋和指標(biāo)更快地演進(jìn)。

      一些與會(huì)者認(rèn)為,市場(chǎng)力量足以推動(dòng)可信賴的工具取代那些可信度較低的工具。而另一些人則反駁道,可能需要政策干預(yù)來(lái)彌補(bǔ)消費(fèi)者保護(hù)和集體問(wèn)責(zé)方面的不足。

      (二)將人工智能深度整合進(jìn)政策制定流程,最大的潛在風(fēng)險(xiǎn)或意外后果是什么?如何主動(dòng)解決這些擔(dān)憂?

      過(guò)度授權(quán)或會(huì)導(dǎo)致人的能動(dòng)性被削弱。過(guò)度依賴人工智能可能會(huì)削弱民主治理所必需的批判性思維和判斷能力,使責(zé)任追溯變得更加困難,并減少新穎見(jiàn)解的產(chǎn)生。需要建立有效的反饋循環(huán),以確保模型始終立足于現(xiàn)實(shí)世界的具體情況。政策制定環(huán)境中的錯(cuò)誤后果可能比其他環(huán)境更嚴(yán)重,因此在高風(fēng)險(xiǎn)場(chǎng)景下部署的模型,需要達(dá)到比低風(fēng)險(xiǎn)場(chǎng)景更高的性能水平。此外,人工智能可能會(huì)用低價(jià)值內(nèi)容淹沒(méi)政策制定過(guò)程,使得識(shí)別和采納高質(zhì)量見(jiàn)解變得更加困難。如果沒(méi)有過(guò)濾或信息優(yōu)先排序的機(jī)制,人工智能可能會(huì)增加決策空間的“噪音”。建議引入“摩擦”,例如增加驗(yàn)證成本,以限制公共反饋流程中的垃圾信息或自動(dòng)化提交。與會(huì)者還探討了對(duì)抗性輸入的風(fēng)險(xiǎn),個(gè)人或團(tuán)體可能會(huì)故意操縱在線內(nèi)容,以影響未來(lái)的人工智能輸出,從而可能扭曲與政策相關(guān)的知識(shí)體系。在政策制定的某些方面,減少人工智能工具的整合反而會(huì)更好。

      (三)如何構(gòu)建人工智能系統(tǒng),才能在不降低信任度或?qū)嵱眯缘那疤嵯?,有效地向政策制定者傳達(dá)不確定性程度?

      人工智能系統(tǒng)傳達(dá)不確定性在技術(shù)上具有挑戰(zhàn)性,特別是在結(jié)構(gòu)化預(yù)測(cè)任務(wù)之外。當(dāng)模型持續(xù)做出具體預(yù)測(cè)時(shí),校準(zhǔn)或許是可行的,但許多政策制定應(yīng)用更具開(kāi)放性。為了提高決策過(guò)程的透明度,有必要明確標(biāo)示哪些輸出由人工智能生成,哪些來(lái)自人類貢獻(xiàn)者。此外,對(duì)人工智能的信任最終可能更多地取決于其過(guò)往記錄,而非最初的印象。

      (四)大規(guī)模采納會(huì)帶來(lái)什么影響?

      人工智能工具的大規(guī)模采納,可能會(huì)改變政策制定中現(xiàn)有的瓶頸,并增加產(chǎn)出、文檔和復(fù)雜性,從而促使政府進(jìn)行相應(yīng)調(diào)整。與會(huì)者討論了參考多個(gè)模型以及建立更強(qiáng)大的評(píng)估生態(tài)系統(tǒng)的必要性。與會(huì)者提出包括認(rèn)知能力下降、判斷力喪失、情感依賴、由于人工智能的說(shuō)服能力而加劇的兩極分化,以及日益增長(zhǎng)的能源需求等擔(dān)憂。此外,強(qiáng)調(diào)潛在的不平等獲取問(wèn)題,即更富裕的機(jī)構(gòu)可能更有能力負(fù)擔(dān)高質(zhì)量的數(shù)據(jù)和模型。

      (五)對(duì)于將執(zhí)行政策制定任務(wù)的人工智能系統(tǒng),需要防范哪些關(guān)鍵的失敗模式?

      一個(gè)重要的擔(dān)憂是信息超載,人工智能工具可以生成大量?jī)?nèi)容,而這些內(nèi)容可能會(huì)掩蓋有價(jià)值或高質(zhì)量的輸入。模型可能內(nèi)嵌了意識(shí)形態(tài)假設(shè),不加批判地接受人工智能輸出是一種潛在的失敗模式。與會(huì)者特別強(qiáng)調(diào)“奉承”的風(fēng)險(xiǎn),即模型會(huì)強(qiáng)化用戶的信念,而不是呈現(xiàn)多元化的觀點(diǎn)。人工智能工具的采納應(yīng)由具體的政策需求驅(qū)動(dòng)而不是被炒作所左右,不應(yīng)在沒(méi)有明確目的的情況下部署。此外,建議開(kāi)發(fā)具有領(lǐng)域特定“護(hù)欄”的專用人工智能系統(tǒng),因?yàn)橥ㄓ媚P涂赡苋狈Ρ匾纳舷挛幕虮U洗胧?。最后,保持質(zhì)量控制并確保政策制定始終以公民為中心至關(guān)重要。

      四、會(huì)議四:為人工智能輔助政策制定構(gòu)建技術(shù)路線圖

      會(huì)議四探討了人工智能在政策制定中的技術(shù)路線圖,將現(xiàn)有的人工智能模型工具與具體的政策應(yīng)用進(jìn)行匹配。

      (一)市場(chǎng)圖譜:目前哪些人工智能工具可支持端到端的政策制定?

      與會(huì)者概述了一個(gè)日益成熟的人工智能工具生態(tài)系統(tǒng),這些工具支持政策制定的不同階段。OpenAI、Claude、Gemini和Perplexity等通用l模型目前主要用于研究和起草工作。專用工具包括用于文獻(xiàn)綜述的Elicit、用于法律工作流程的Harvey,以及用于結(jié)構(gòu)化政策整合的Policy Synth。像Granola和Grain這類工具可協(xié)助記錄和總結(jié)會(huì)議內(nèi)容,而微軟Copilot則因其與現(xiàn)有工作流程的無(wú)縫集成而被廣泛采用。特定領(lǐng)域的舉措包括帶有XML注釋的法律、確定性語(yǔ)言(如Catala)和實(shí)驗(yàn)性工具(如政策模擬器)。與會(huì)者表示,很少有工具能提供完整的端到端支持,但關(guān)鍵組件已經(jīng)就位。

      (二)哪些是最需要首先開(kāi)發(fā)的重點(diǎn)領(lǐng)域和能力?

      質(zhì)量保證是一個(gè)關(guān)鍵焦點(diǎn),包括提升模型輸出的可靠性、精確度和準(zhǔn)確性。與會(huì)者強(qiáng)調(diào)“品味”的重要性,即系統(tǒng)識(shí)別有用信息來(lái)源和采用適合政策制定語(yǔ)境的寫(xiě)作風(fēng)格的能力。人工智能工具應(yīng)能讓人們輕松追溯到支持結(jié)論的論據(jù)和證據(jù)。與會(huì)者還討論了如何促使和訓(xùn)練模型保持透明,包括評(píng)估偏見(jiàn)的必要性。為了鼓勵(lì)人工智能的采納,各機(jī)構(gòu)必須授權(quán)、培訓(xùn)并推廣員工使用人工智能工具。此外,可靠的用戶界面(UI)和用戶體驗(yàn)(UX)非常重要,這能讓員工更容易學(xué)會(huì)有效使用這些工具。

      (三)你希望看到哪些工具被開(kāi)發(fā)或采納?

      與會(huì)者表示有興趣為不同類型的用戶建立定制化工作流程,以生成政策摘要、談話要點(diǎn)和面向特定受眾的輸出內(nèi)容。他們特別強(qiáng)調(diào)能將會(huì)議記錄轉(zhuǎn)換為關(guān)系圖、客戶關(guān)系管理?xiàng)l目等結(jié)構(gòu)化格式工具,以及將復(fù)雜規(guī)則翻譯成通俗易懂語(yǔ)言工具的重要性。與會(huì)者還提出了用于識(shí)別參與者之間政策一致性的自動(dòng)化分析工具,以及自動(dòng)事實(shí)核查系統(tǒng)。他們還強(qiáng)調(diào)了能增強(qiáng)公眾參與度和透明度工具的重要性,并舉例提到了政策摘要平臺(tái)和模擬工具(如Concordia)。

      (四)利益相關(guān)方如何開(kāi)始部署或測(cè)試這些工具?

      將人工智能系統(tǒng)部署到政策制定環(huán)境中面臨結(jié)構(gòu)性挑戰(zhàn),包括公司缺乏構(gòu)建和維護(hù)特定政策工具的經(jīng)濟(jì)激勵(lì)。面向政府市場(chǎng)或智庫(kù)的人工智能產(chǎn)品市場(chǎng)規(guī)模小,通常被認(rèn)為不具經(jīng)濟(jì)吸引力。與會(huì)者建議,改造通用工具供政府使用可能比構(gòu)建定制解決方案更可行。為政府開(kāi)發(fā)定制軟件被認(rèn)為是資源密集型的工作。但也有人樂(lè)觀地認(rèn)為,隨著軟件開(kāi)發(fā)的持續(xù)進(jìn)步,成本可能會(huì)隨時(shí)間降低,從而使開(kāi)發(fā)更具針對(duì)性的工具變得更可行。此外,有必要建立可行的商業(yè)模式來(lái)證明開(kāi)發(fā)這些工具的合理性,例如通過(guò)多年期合同、激勵(lì)機(jī)制設(shè)計(jì)以及供應(yīng)商和機(jī)構(gòu)之間建立結(jié)構(gòu)化關(guān)系。總而言之,僅靠傳統(tǒng)的市場(chǎng)力量可能不足以支持政策制定者所需的人工智能工具,可能需要其他的開(kāi)發(fā)和部署模式。

      (五)近期、中期和長(zhǎng)期的成功衡量標(biāo)準(zhǔn)是什么?誰(shuí)來(lái)驗(yàn)證成功?

      部分與會(huì)者認(rèn)為,近期的成功指標(biāo)是更快地完成常規(guī)工作流程、為員工節(jié)省時(shí)間,以及在同行經(jīng)驗(yàn)的推動(dòng)下更廣泛地采納人工智能工具。其他與會(huì)者認(rèn)為,成功的標(biāo)志是增加試驗(yàn),特別是針對(duì)低風(fēng)險(xiǎn)決策的試驗(yàn)。從中期來(lái)看,成功將包括減少利益相關(guān)方之間的迭代循環(huán)、提高預(yù)測(cè)提案反應(yīng)的能力,以及在危機(jī)期間增強(qiáng)響應(yīng)能力。未來(lái)的人工智能工具可能將支持更廣泛地探索政策選項(xiàng)空間,并更好地將法律、經(jīng)濟(jì)和公平因素整合到分析中。長(zhǎng)期的成功衡量標(biāo)準(zhǔn)則側(cè)重于機(jī)構(gòu)和社會(huì)成果,如改善審議、加強(qiáng)談判以及能帶來(lái)更好社會(huì)結(jié)果的政策。與會(huì)者強(qiáng)調(diào)了關(guān)鍵目標(biāo),例如提高公眾參與度、減少盲點(diǎn)和增強(qiáng)對(duì)機(jī)構(gòu)的信任。與會(huì)者討論了由誰(shuí)以及如何來(lái)驗(yàn)證成功。他們建議在機(jī)構(gòu)內(nèi)部追蹤運(yùn)營(yíng)目標(biāo),如節(jié)省時(shí)間或加快政策文件的編制。對(duì)于更廣泛的社會(huì)影響,如提高對(duì)機(jī)構(gòu)的信任或改善政策成果,可能需要通過(guò)民意調(diào)查或宏觀研究來(lái)驗(yàn)證。

      五、結(jié)論

      這場(chǎng)技術(shù)專家與政策專家之間的對(duì)話,探討了將人工智能融入民主治理的巨大前景和復(fù)雜挑戰(zhàn)。隨著政策制定者努力跟上日益復(fù)雜的世界和快速演變的全球挑戰(zhàn),傳統(tǒng)的政策制定流程在應(yīng)對(duì)需要實(shí)時(shí)分析和整合海量信息的問(wèn)題時(shí),正變得力不從心。與會(huì)者討論了人工智能工具如何能彌補(bǔ)這一差距,以及它們目前是如何為政策制定工作流程做出有意義的貢獻(xiàn)。

      本次研討會(huì)中有幾個(gè)反復(fù)出現(xiàn)的主題:首先,在政策制定環(huán)境中有效部署人工智能存在結(jié)構(gòu)性障礙,包括不明確的人工智能使用政策、隱私顧慮以及機(jī)構(gòu)支持的缺失。其次,需界定人工智能自動(dòng)化和人類監(jiān)督之間的恰當(dāng)界限。雖然存在許多適合自動(dòng)化的任務(wù),如起草、整合選民反饋、生成面向特定受眾的輸出內(nèi)容等,但過(guò)度依賴人工智能可能會(huì)削弱對(duì)人工智能產(chǎn)出和民主問(wèn)責(zé)制的批判性思考。在政策制定中持續(xù)需要人類判斷力,應(yīng)在人與人工智能之間建立有效反饋循環(huán)。最后,如何確保人工智能工具保持透明和可信。需要有透明的人工智能推理過(guò)程、明確區(qū)分人工智能和人類的貢獻(xiàn),并與利益相關(guān)方和選民共同參與設(shè)計(jì)。總而言之,應(yīng)有策略地采納和開(kāi)發(fā)人工智能工具,以強(qiáng)化政策制定流程并改善其成果。

      免責(zé)聲明:本文轉(zhuǎn)自啟元洞見(jiàn)。文章內(nèi)容系原作者個(gè)人觀點(diǎn),本公眾號(hào)編譯/轉(zhuǎn)載僅為分享、傳達(dá)不同觀點(diǎn),如有任何異議,歡迎聯(lián)系我們!

      轉(zhuǎn)自丨啟元洞見(jiàn)

      研究所簡(jiǎn)介

      國(guó)際技術(shù)經(jīng)濟(jì)研究所(IITE)成立于1985年11月,是隸屬于國(guó)務(wù)院發(fā)展研究中心的非營(yíng)利性研究機(jī)構(gòu),主要職能是研究我國(guó)經(jīng)濟(jì)、科技社會(huì)發(fā)展中的重大政策性、戰(zhàn)略性、前瞻性問(wèn)題,跟蹤和分析世界科技、經(jīng)濟(jì)發(fā)展態(tài)勢(shì),為中央和有關(guān)部委提供決策咨詢服務(wù)?!叭蚣夹g(shù)地圖”為國(guó)際技術(shù)經(jīng)濟(jì)研究所官方微信賬號(hào),致力于向公眾傳遞前沿技術(shù)資訊和科技創(chuàng)新洞見(jiàn)。

      地址:北京市海淀區(qū)小南莊20號(hào)樓A座

      電話:010-82635522

      微信:iite_er

      特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      全球技術(shù)地圖 incentive-icons
      全球技術(shù)地圖
      洞見(jiàn)前沿,引領(lǐng)未來(lái)
      4145文章數(shù) 13415關(guān)注度
      往期回顧 全部

      專題推薦

      洞天福地 花海畢節(jié) 山水饋贈(zèng)里的“詩(shī)與遠(yuǎn)方

      無(wú)障礙瀏覽 進(jìn)入關(guān)懷版