Towards a Better Understanding of EvaluatingTrustworthiness in AI Systems
TrustAIoT:構(gòu)建可信人工智能物聯(lián)網(wǎng)平臺的框架
https://www.sciencedirect.com/science/article/pii/S2542660525002641
![]()
![]()
摘要
在一個日益互聯(lián)的世界中,每個設(shè)備都被期望連接到互聯(lián)網(wǎng),并因此與其他能夠通信的對象相連。隨著物聯(lián)網(wǎng)(IoT)的擴(kuò)展,社會、法律和倫理問題也隨之增加。此外,物聯(lián)網(wǎng)系統(tǒng)正在發(fā)展,以處理數(shù)據(jù)并根據(jù)其發(fā)現(xiàn)提供建議,這種能力源于人工智能(AI)和機(jī)器學(xué)習(xí)技術(shù)的整合。物聯(lián)網(wǎng)和人工智能的融合(AIoT),以及AIoT架構(gòu)的獨(dú)特方面與非物聯(lián)網(wǎng)啟用的AI系統(tǒng)不同,這需要對構(gòu)建可信AIoT系統(tǒng)的具體考慮進(jìn)行全面審查。由于這種融合引入的復(fù)雜性和潛在漏洞增加,確保AIoT的可信度至關(guān)重要。
本文介紹了TrustAIoT,這是一個用于開發(fā)和長期治理可信AIoT平臺的結(jié)構(gòu)化框架。該框架整合了倫理、法律和技術(shù)維度,包含一個多層指南和一個面向生命周期的過程,專門針對AIoT系統(tǒng)的特定架構(gòu)特征。
基于系統(tǒng)性文獻(xiàn)綜述,與可信度相關(guān)的技術(shù)、倫理和法律要素被交叉引用并與AIoT環(huán)境的操作和架構(gòu)需求進(jìn)行對比,確保所有關(guān)鍵方面都得到解決。分析了在異構(gòu)架構(gòu)中應(yīng)用這些要素的挑戰(zhàn),從而定義了在AIoT平臺的不同層之間轉(zhuǎn)移信任原則的指南,以及構(gòu)建和維護(hù)此類平臺的過程。平臺被理解為一個環(huán)境,包括基礎(chǔ)設(shè)施、工具、服務(wù)、流程和組件,用于開發(fā)、部署和運(yùn)營應(yīng)用程序。
TrustAIoT框架將這些元素整合為一個連貫的方法,支持在整個平臺生命周期內(nèi)進(jìn)行以信任為導(dǎo)向的決策,從架構(gòu)設(shè)計(jì)到項(xiàng)目部署。
所提出的指南和過程形成了一個統(tǒng)一的框架,確保了高可信度標(biāo)準(zhǔn),從而使得在AIoT生態(tài)系統(tǒng)內(nèi)可靠地開發(fā)多個項(xiàng)目和應(yīng)用程序成為可能。
關(guān)鍵詞:人工智能物聯(lián)網(wǎng)(AIIoT)、可信度、倫理、人工智能物聯(lián)網(wǎng)(AIoT)、框架、架構(gòu)、平臺
1. 引言
物聯(lián)網(wǎng)(IoT)由一個廣泛的相互連接的物理設(shè)備網(wǎng)絡(luò)組成,這些設(shè)備從日常家用物品到復(fù)雜的工業(yè)機(jī)械。這些設(shè)備通過互聯(lián)網(wǎng)連接無縫通信、收集和交換大量數(shù)據(jù)。物聯(lián)網(wǎng)設(shè)備配備了傳感器和專業(yè)軟件,能夠智能地與環(huán)境互動,使它們變得“智能”。然而,物聯(lián)網(wǎng)的這種快速擴(kuò)張引發(fā)了隱私問題,因?yàn)檫@些設(shè)備本質(zhì)上會收集大量數(shù)據(jù)。這些設(shè)備的設(shè)計(jì)是收集和處理個人數(shù)據(jù)到顆粒層面,以提高效率和用戶體驗(yàn)。風(fēng)險(xiǎn)在于潛在的數(shù)據(jù)泄露,因?yàn)槲锫?lián)網(wǎng)無縫地融入了我們的生活和周圍環(huán)境。例如Onto-CARMEN [1] 或 MARISMA-CPS [2] 等解決方案有助于管理這種風(fēng)險(xiǎn)。
這種數(shù)據(jù)暴露是導(dǎo)致人工智能物聯(lián)網(wǎng)(AIoT)中信任挑戰(zhàn)的幾個因素之一,盡管并非唯一因素。在這些生態(tài)系統(tǒng)內(nèi)的利益相關(guān)者之間建立或增強(qiáng)信任存在廣泛共識 [3–11]。信任是用戶對系統(tǒng)的主觀信念,基于他們對其輸出可靠性的感知。用戶根據(jù)他們對系統(tǒng)可靠性、能力和意圖的感知來授予信任 [12]。可信度是促進(jìn)用戶對系統(tǒng)信任的基礎(chǔ)條件。因此,用戶參與和開發(fā)可信人工智能物聯(lián)網(wǎng)(AIoT)框架對于有效地將系統(tǒng)級可信度轉(zhuǎn)化為用戶感知的信任至關(guān)重要 [13]。
此外,物聯(lián)網(wǎng)系統(tǒng)的架構(gòu)足夠復(fù)雜,可以整合人工智能(AI)技術(shù)用于數(shù)據(jù)分析、個性化、推薦和決策過程。因此,物聯(lián)網(wǎng)和人工智能的融合將人工智能特有的挑戰(zhàn)引入了物聯(lián)網(wǎng)領(lǐng)域 [13]。由于其架構(gòu)特點(diǎn),這些挑戰(zhàn)有時必須以分散的方式解決,并且在能力有限的設(shè)備上解決。這種融合被稱為“智能物聯(lián)網(wǎng)”“人工智能物聯(lián)網(wǎng)(AIoT)”或“邊緣智能”。然而,這三種術(shù)語并不相同。“智能物聯(lián)網(wǎng)”指的是具有基本處理能力的物聯(lián)網(wǎng)設(shè)備,可以自主執(zhí)行簡單任務(wù)。“邊緣智能”側(cè)重于在網(wǎng)絡(luò)邊緣本地處理數(shù)據(jù),減少延遲和對云的依賴。“人工智能物聯(lián)網(wǎng)(AIoT)”將物聯(lián)網(wǎng)與先進(jìn)的人工智能能力相結(jié)合,使設(shè)備能夠自主分析數(shù)據(jù)并做出決策 [4–10,14,15]。本文在人工智能物聯(lián)網(wǎng)(AIoT)的背景下進(jìn)行分析,因?yàn)樗w了物聯(lián)網(wǎng)和人工智能技術(shù)最全面的整合。
根據(jù)歐盟委員會的高級別專家組 [16],人工智能領(lǐng)域的可信度包括合法性、穩(wěn)健性和倫理。因此,可信度意味著對相互關(guān)聯(lián)的社會和技術(shù)方面的綜合管理。此外,當(dāng)在實(shí)踐中應(yīng)用倫理和社會原則以構(gòu)建可信系統(tǒng)時,會出現(xiàn)挑戰(zhàn)。這些挑戰(zhàn)包括關(guān)于如何在實(shí)踐中實(shí)施這些原則的不確定性 [17],以及倫理原則的復(fù)雜性、主觀解釋、情境變化和標(biāo)準(zhǔn)化不足 [18]。因此,有必要形式化一個框架,指導(dǎo)所有期望方面的實(shí)際應(yīng)用,以在這些系統(tǒng)中產(chǎn)生信任 [19]。
根據(jù)弗洛里迪等人 [20] 的說法,人工智能系統(tǒng)的期望倫理原則可以分為五個主要領(lǐng)域。有益原則側(cè)重于確保人工智能造福人類和環(huán)境,同時尊重人權(quán)。無害原則旨在防止對人們造成傷害。自主原則強(qiáng)調(diào)人類對人工智能做出決策的權(quán)利。正義原則旨在糾正過去的不平等,并確保公平分配人工智能的利益。可解釋性原則涉及使人工智能系統(tǒng)可理解并負(fù)責(zé),增強(qiáng)透明度和信任。然而,為了實(shí)現(xiàn)可信度,管理合法性和技術(shù)等相互關(guān)聯(lián)的方面與倫理原則一樣重要 [21]。合法性指的是尊重所有適用的法律、法規(guī)和合規(guī)政策。技術(shù)原則考慮技術(shù)工具和過程,以及倫理和法律方面,以有效地和穩(wěn)健地在實(shí)踐中實(shí)施這些原則。圖1展示了實(shí)現(xiàn)人工智能可信度所需的這一系列相互關(guān)聯(lián)的原則。
![]()
然而,這些原則并非孤立運(yùn)作。基于這一分類,倫理、法律和技術(shù)維度之間的結(jié)構(gòu)相互依賴性變得必要。與其根據(jù)感知的緊迫性或引用頻率對原則進(jìn)行優(yōu)先排序,不如更好地理解它們在給定背景下的相互關(guān)系中的操作相關(guān)性。例如,在面向醫(yī)療保健的人工智能物聯(lián)網(wǎng)系統(tǒng)中,無害原則和自主原則通常是基礎(chǔ)性的,而在工業(yè)環(huán)境中,互操作性和彈性可能占主導(dǎo)地位。TrustAIoT框架通過將信任相關(guān)活動組織成功能層并支持迭代改進(jìn),擁抱這種社會技術(shù)視角。這使得平臺設(shè)計(jì)者能夠根據(jù)領(lǐng)域需求、監(jiān)管約束和利益相關(guān)者期望定制信任策略,而不是強(qiáng)加一種一刀切的層級結(jié)構(gòu)。
因此,人工智能物聯(lián)網(wǎng)系統(tǒng)的特點(diǎn),如其分布式架構(gòu) [3] 和設(shè)備的資源限制 [22],需要從可信度的角度進(jìn)行專門分析。這一點(diǎn)至關(guān)重要,因?yàn)楸M管存在許多人工智能系統(tǒng)的可信度框架,但人工智能物聯(lián)網(wǎng)環(huán)境引入了必須解決的額外復(fù)雜性和漏洞,以確保可靠和安全的操作。人工智能物聯(lián)網(wǎng)用例特別相關(guān),因?yàn)槟承┬湃螁栴}必須與傳統(tǒng)人工智能系統(tǒng)不同地解決 [10,13]。
因此,開發(fā)了一個名為TrustAIoT的框架,以支持創(chuàng)建能夠托管人工智能物聯(lián)網(wǎng)應(yīng)用的平臺,這些平臺符合嚴(yán)格的可信度要求。該框架圍繞一個持續(xù)改進(jìn)的迭代過程構(gòu)建,由一個結(jié)構(gòu)化指南指導(dǎo),將廣泛的信任相關(guān)活動映射到邊緣-霧-云計(jì)算架構(gòu) [23]。這種方法使平臺能夠通過解決托管項(xiàng)目不斷演變的要求中最關(guān)鍵的與信任相關(guān)的方面,逐步成熟。因此,TrustAIoT構(gòu)成了這項(xiàng)工作的核心貢獻(xiàn)。
本文的主要貢獻(xiàn),每個都針對當(dāng)前文獻(xiàn)中的一個特定空白,總結(jié)如下:
TrustAIoT框架,一種用于構(gòu)建可信人工智能物聯(lián)網(wǎng)平臺的結(jié)構(gòu)化和迭代方法,彌合了高級別可信度分類原則與邊緣-霧-云計(jì)算架構(gòu)中平臺級實(shí)施之間的差距。
一種映射指南,通過將信任相關(guān)活動與功能和架構(gòu)層聯(lián)系起來,將分類原則具體化,克服了以前人工智能物聯(lián)網(wǎng)系統(tǒng)信任提案中觀察到的碎片化 [7,10]。
一種以生命周期為導(dǎo)向的過程模型,以BPMN 2.0指定,以支持人工智能物聯(lián)網(wǎng)平臺中可信度的治理、演變和持續(xù)評估,填補(bǔ)了人工智能物聯(lián)網(wǎng)中以過程為導(dǎo)向的可信度治理的方法論空白。
識別出當(dāng)前立法(例如,人工智能法案)可能未能解決人工智能物聯(lián)網(wǎng)環(huán)境的獨(dú)特風(fēng)險(xiǎn)和約束的監(jiān)管重點(diǎn)領(lǐng)域。
因此,本文的其余部分結(jié)構(gòu)如下:第2節(jié)考察人工智能物聯(lián)網(wǎng)系統(tǒng)與傳統(tǒng)人工智能系統(tǒng)的特定特點(diǎn),強(qiáng)調(diào)出現(xiàn)的獨(dú)特與信任相關(guān)的挑戰(zhàn)。第3節(jié)描述構(gòu)建和管理可信人工智能物聯(lián)網(wǎng)平臺的過程。第4節(jié)提供了實(shí)現(xiàn)可信度所需的活動的全面分析,作為整體框架內(nèi)幾個子流程的指南。第5節(jié)識別出當(dāng)前立法可以加強(qiáng)的關(guān)鍵監(jiān)管領(lǐng)域。最后,第6節(jié)總結(jié)了研究的主要結(jié)論。
2. 人工智能物聯(lián)網(wǎng)(AIoT)系統(tǒng)中的必要可信度
為了分析人工智能物聯(lián)網(wǎng)(AIoT)系統(tǒng),進(jìn)行了系統(tǒng)性文獻(xiàn)綜述,研究問題如下:
RQ1:人工智能物聯(lián)網(wǎng)應(yīng)用的主要架構(gòu)特征是什么,這些特征表明需要特定的可信度考量?
RQ2:與人工智能物聯(lián)網(wǎng)系統(tǒng)相關(guān)的主要問題和挑戰(zhàn)是什么?
為了找到回答這些問題的相關(guān)文獻(xiàn),使用以下查詢語句進(jìn)行了自動化搜索:(IoT OR AIoT) AND (Law OR Ethic OR Guideline* OR Trust*)**
該查詢在ACM數(shù)字圖書館、Scopus和IEEE Xplore中執(zhí)行,目標(biāo)是期刊文章、會議論文和研討會論文。
為了確保方法論的透明性,定義并應(yīng)用了一套納入和排除標(biāo)準(zhǔn),受PRISMA原則的啟發(fā),以確保透明性和可復(fù)制性。
納入標(biāo)準(zhǔn)要求論文:
(i)在物聯(lián)網(wǎng)或人工智能物聯(lián)網(wǎng)的背景下涉及信任、倫理、法律、可解釋性或治理;
(ii)是在期刊或會議論文中發(fā)表的同行評審文章;
(iii)在2018年至2025年之間發(fā)表;
(iv)包含與架構(gòu)、框架或應(yīng)用解決方案相關(guān)的相關(guān)技術(shù)內(nèi)容。
排除標(biāo)準(zhǔn)包括:
(i)缺乏完整技術(shù)開發(fā)的短文或擴(kuò)展摘要;
(ii)跨數(shù)據(jù)庫的重復(fù)條目;
(iii)未經(jīng)同行評審的預(yù)印本或出版物;
(iv)未涉及人工智能物聯(lián)網(wǎng)環(huán)境中系統(tǒng)級可信度的作品;
(v)僅專注于概念或規(guī)范倫理的作品,除非它們提供了在文獻(xiàn)中被廣泛采用的可信度的定義性描述;
(vi)僅限于狹窄用例或高度特定技術(shù)的研究,除非它們的發(fā)現(xiàn)提供了可應(yīng)用于更廣泛平臺級背景的可轉(zhuǎn)移機(jī)制;
(vii)未涉及多層架構(gòu)(例如,邊緣-霧-云)的作品,除非它們提出的信任機(jī)制可以被推廣或適應(yīng)到這樣的環(huán)境中。
最初的查詢返回了1732篇文獻(xiàn)。在去重后,剩下1335條記錄用于標(biāo)題和摘要篩選。根據(jù)嚴(yán)格的納入標(biāo)準(zhǔn)和本研究的具體重點(diǎn),只有其中的一部分被認(rèn)為適合進(jìn)行全文評估。因此,最終有20篇論文被選中納入,因?yàn)樗鼈兺耆腺Y格標(biāo)準(zhǔn),并提供了一個具有代表性和主題多樣化的樣本,涵蓋信任建模、隱私、邊緣計(jì)算、可解釋人工智能和倫理框架等領(lǐng)域。此外,還納入了6篇在同行評審過程中推薦的同行評審文章,因?yàn)樗鼈兣c人工智能物聯(lián)網(wǎng)中的信任和協(xié)作高度相關(guān),進(jìn)一步豐富了本研究的分析范圍。
本研究分析的最終語料庫由26篇同行評審文章組成,包括通過文獻(xiàn)綜述協(xié)議系統(tǒng)選擇的20篇文章,以及在同行評審過程中建議的6篇額外作品。它們共同為解決TrustAIoT框架中探索的架構(gòu)、運(yùn)營和治理挑戰(zhàn)提供了堅(jiān)實(shí)且具有代表性的基礎(chǔ)。
這20篇系統(tǒng)選擇的文章涵蓋了人工智能物聯(lián)網(wǎng)系統(tǒng)中的一系列關(guān)鍵挑戰(zhàn),包括邊緣網(wǎng)絡(luò)中的隱私保護(hù)計(jì)算 [3,6,13]、分散化和聯(lián)邦架構(gòu) [4,8,24]、信任和聲譽(yù)管理 [7,15],以及以人為中心的可解釋性 [9,25]。它們還涉及關(guān)鍵方面,如CPS集成、環(huán)境可持續(xù)性以及信任的監(jiān)管維度 [11,15,20]。
另外6篇作品通過納入智能工廠中基于信任的團(tuán)隊(duì)組建 [26]、無人機(jī)輔助移動眾包感知 [27]、元宇宙環(huán)境中抗干擾通信 [28],以及物聯(lián)網(wǎng)生態(tài)系統(tǒng)中信任和聲譽(yù)的全面調(diào)查和基礎(chǔ)模型 [29–31] 的觀點(diǎn),擴(kuò)展了本語料庫的范圍。
2.1 RQ1:需要信任特定處理的架構(gòu)特征
人工智能物聯(lián)網(wǎng)系統(tǒng)與傳統(tǒng)人工智能應(yīng)用存在顯著差異,因?yàn)樗鼈兙哂卸鄬印悩?gòu)和動態(tài)的架構(gòu)。這些系統(tǒng)跨越感知層、邊緣層、霧層和云層,通常包含移動組件和網(wǎng)絡(luò)-物理反饋回路。每一層架構(gòu)都涉及不同的能力、暴露和責(zé)任,這些直接影響可信度的定義和維護(hù)方式 [4,11,24]。
在文獻(xiàn)中識別出的一個核心架構(gòu)問題是計(jì)算邏輯與物理基礎(chǔ)設(shè)施的集成,通常在CPS(網(wǎng)絡(luò)物理系統(tǒng))范式下進(jìn)行研究。例如 [11,22,32] 的工作強(qiáng)調(diào),這種集成擴(kuò)大了攻擊面,并使運(yùn)行時行為評估在實(shí)時場景中變得不那么可預(yù)測。這進(jìn)一步被移動性、連接性的波動性以及無人機(jī)和移動眾包感知(MCS)啟用的人工智能物聯(lián)網(wǎng)網(wǎng)絡(luò)中缺乏持久身份管理所復(fù)雜化 [27]。
異構(gòu)性是另一個反復(fù)出現(xiàn)的主題:同一系統(tǒng)內(nèi)的設(shè)備在處理能力、內(nèi)存、通信協(xié)議和能源配置方面差異很大。幾項(xiàng)貢獻(xiàn)強(qiáng)調(diào),這種異構(gòu)性限制了統(tǒng)一加密、認(rèn)證或政策執(zhí)行機(jī)制的適用性 [3,4,6,13]。例如,邊緣級設(shè)備可能無法執(zhí)行復(fù)雜的加密例程,或者無法參與隱私保護(hù)聯(lián)邦學(xué)習(xí)所需的持續(xù)模型更新 [8,24]。
架構(gòu)的去中心化,盡管經(jīng)常被提議作為解決可擴(kuò)展性和穩(wěn)健性問題的補(bǔ)救措施,但引入了新的信任挑戰(zhàn)。之前的研究 [8,15,31] 已經(jīng)指出,分布式拓?fù)淠:素?zé)任線,當(dāng)決策在霧層或邊緣層做出時,更難保證問責(zé)制、可追溯性或倫理合規(guī)性。
只有少數(shù)被審查的作品明確區(qū)分了各架構(gòu)層之間的信任問題。例如 [7,25],主要集中在數(shù)據(jù)或服務(wù)層面的信任,而沒有區(qū)分?jǐn)?shù)據(jù)攝取、處理或聚合點(diǎn)。其他作品如 [26,28] 提出了基于信任的代理協(xié)調(diào)機(jī)制,但沒有將這些機(jī)制映射到架構(gòu)分層或系統(tǒng)治理上。
總體而言,明顯缺乏能夠適應(yīng)人工智能物聯(lián)網(wǎng)系統(tǒng)分層性質(zhì)的設(shè)計(jì)框架,同時提供不同但一致的信任策略。大多數(shù)信任機(jī)制是為孤立的上下文或單一層面設(shè)計(jì)的,缺乏一個能夠在各層之間雙向傳播信任的連貫?zāi)P汀?/p>
這一分析進(jìn)一步強(qiáng)化了需要一種結(jié)構(gòu)化的平臺級方法,其中架構(gòu)分層不是要解決的技術(shù)約束,而是要明確納入可信度模型的設(shè)計(jì)軸。這種方法應(yīng)支持每層的差異化策略,同時確保整個系統(tǒng)生命周期內(nèi)的一致性、可追溯性和適應(yīng)性。
2.2 RQ2:人工智能物聯(lián)網(wǎng)(AIoT)可信度的挑戰(zhàn)和問題
除了架構(gòu)復(fù)雜性外,人工智能物聯(lián)網(wǎng)(AIoT)系統(tǒng)還面臨著多種直接沖擊可信度的問題。這些問題包括技術(shù)威脅(例如,對抗行為、通信漏洞)、運(yùn)營限制(例如,受限資源、大規(guī)模協(xié)調(diào))以及社會技術(shù)性緊張關(guān)系(例如,缺乏透明度、責(zé)任不明確)。對文獻(xiàn)的回顧表明,大多數(shù)研究只關(guān)注這些挑戰(zhàn)的一個子集,且往往孤立地進(jìn)行研究。
隱私仍然是最突出的問題之一。由于人工智能物聯(lián)網(wǎng)設(shè)備與終端用戶的接近性以及傳感器的無處不在,許多研究強(qiáng)調(diào)了在邊緣環(huán)境中進(jìn)行隱私保護(hù)計(jì)算的必要性 [3,6,13]。然而,盡管數(shù)據(jù)最小化、差分隱私和本地處理等機(jī)制有助于降低風(fēng)險(xiǎn),但它們的部署往往需要在模型準(zhǔn)確性、延遲和能耗之間進(jìn)行權(quán)衡,尤其是在異構(gòu)基礎(chǔ)設(shè)施中 [4,24]。
信任評估機(jī)制,例如基于聲譽(yù)或行為評分的機(jī)制,被廣泛使用,但在對抗環(huán)境中顯示出重要的局限性。像 [7,29,30] 這樣的研究對這些模型進(jìn)行了分類和調(diào)查,表明許多模型容易受到自我提升、開/關(guān)行為和合謀等攻擊。此外,它們通常是在靜態(tài)拓?fù)浣Y(jié)構(gòu)下設(shè)計(jì)的,使其不適合具有高移動性、動態(tài)拓?fù)浣Y(jié)構(gòu)和時間波動性的人工智能物聯(lián)網(wǎng)環(huán)境 [26,27]。
另一個重大挑戰(zhàn)是可解釋性。人工智能物聯(lián)網(wǎng)系統(tǒng)通常依賴于黑箱模型,這些模型在有限的人類監(jiān)督下做出自主決策。許多研究認(rèn)識到,如果沒有清晰的解釋,用戶和監(jiān)管者不太可能信任系統(tǒng)輸出 [9,25]。然而,很少有提議將可解釋性整合到信任評估本身中,更少有提議將其與跨層的技術(shù)可觀察性對齊。
在分布式部署中,可擴(kuò)展性也成為一個問題。依賴于集中控制或全局知識的信任機(jī)制通常在大規(guī)模環(huán)境下會失效,特別是在連接間歇性或必須在邊緣做出決策的環(huán)境中。像 [8,15] 這樣的研究提出了部分去中心化的解決方案,但對于長期治理、可審計(jì)性或利益相關(guān)者之間的協(xié)調(diào)的長期影響仍然研究不足。
最后,倫理和環(huán)境問題在一些研究中被概念性地討論 [15,20],但很少被轉(zhuǎn)化為具體的設(shè)計(jì)要求。可持續(xù)性、社會影響或保護(hù)弱勢群體等主題被提及,但沒有轉(zhuǎn)化為人工智能物聯(lián)網(wǎng)系統(tǒng)的設(shè)計(jì)要求、約束或設(shè)計(jì)元素。
綜合來看,這些觀察結(jié)果揭示了一個碎片化的格局:雖然可信度的個別方面得到了解決(例如,隱私、穩(wěn)健性、透明度),但很少有方法從整體、多維的角度看待可信度。明顯缺乏以生命周期為導(dǎo)向的過程,這些過程能夠隨著時間的推移適應(yīng)性地管理信任,或者缺乏將技術(shù)機(jī)制與制度或法律期望對齊的框架。
2.3 綜合與研究空白
對RQ1和RQ2的分析表明,盡管文獻(xiàn)為人工智能物聯(lián)網(wǎng)可信度的特定方面提供了許多有價(jià)值的貢獻(xiàn),但它仍然是碎片化的,整合不足。大多數(shù)方法專注于架構(gòu)或運(yùn)營挑戰(zhàn),但很少同時解決兩者。
盡管一些研究識別了根據(jù)架構(gòu)分層調(diào)整信任機(jī)制的必要性,但只有少數(shù)提出了跨系統(tǒng)層級的差異化策略,沒有一個提供了一個統(tǒng)一的模型,以在整個人工智能物聯(lián)網(wǎng)堆棧中一致地傳播信任 [4,11,24]。同樣,盡管隱私、可解釋性和協(xié)調(diào)經(jīng)常被公認(rèn)為是關(guān)鍵的,但當(dāng)前的提議通常將它們視為孤立的設(shè)計(jì)特征,而不是統(tǒng)一、系統(tǒng)性信任管理方法的組成部分 [6,15,25]。
此外,很少有框架采用以生命周期為導(dǎo)向的信任視角,這種信任隨著系統(tǒng)的部署、監(jiān)控和隨時間的適應(yīng)而演變。治理方面,如責(zé)任分配、決策的可追溯性或倫理合規(guī)性,很少與架構(gòu)元素或運(yùn)行時控制回路聯(lián)系起來 [8,20]。相反,信任通常被簡化為基于行為的指標(biāo)、靜態(tài)聲譽(yù)分?jǐn)?shù)或局部應(yīng)用的密碼學(xué)保證。
鑒于這些空白,開發(fā)一種以平臺為導(dǎo)向的人工智能物聯(lián)網(wǎng)可信度方法顯然存在機(jī)會:這種方法將架構(gòu)分層、運(yùn)營問題和規(guī)范性維度整合到一個連貫且可操作的框架中。這種方法應(yīng)該將技術(shù)組件與制度要求對齊,支持多層治理,并啟用適應(yīng)性強(qiáng)、可審計(jì)且可持續(xù)的信任策略。
這種綜合分析為下一節(jié)中介紹的TrustAIoT框架的設(shè)計(jì)原則提供了信息,在該框架中,這些空白通過一種結(jié)構(gòu)化的、平臺級的方法得到解決。表1總結(jié)了識別出的主要架構(gòu)特征和可信度挑戰(zhàn)。概念性或規(guī)范性論文被排除在該表之外。盡管這些工作為框架的理論基礎(chǔ)提供了信息,但它們沒有明確解決人工智能物聯(lián)網(wǎng)系統(tǒng)中的架構(gòu)空白。
![]()
3. 構(gòu)建和維護(hù)可信人工智能物聯(lián)網(wǎng)平臺的流程
構(gòu)建用于托管可信人工智能物聯(lián)網(wǎng)項(xiàng)目的平臺的流程被劃分為六個迭代子流程,如圖2所示。每個子流程支持隨著時間推移的增量式能力增強(qiáng)和集成。該流程遵循BPMN 2.0標(biāo)準(zhǔn) [34],使用多個泳道來在高級別上表示涉及的不同團(tuán)隊(duì)。這些團(tuán)隊(duì)包括戰(zhàn)略團(tuán)隊(duì)、平臺團(tuán)隊(duì)、設(shè)計(jì)團(tuán)隊(duì)以及合規(guī)與政策團(tuán)隊(duì)。流程遵循順序執(zhí)行,其中第四和第五子流程可以并行執(zhí)行。每個子流程包含特定的任務(wù),需要某些輸入以生成定義好的輸出,確保所有階段的可追溯性和一致性。這六個子流程是嵌入式子流程,如圖3至圖8右上角的圖標(biāo)所示。這意味著這些子流程被定義和用于主流程中,不能直接在其他流程中復(fù)用。
![]()
![]()
在整個流程中,被稱為“映射指南”的輸入(在圖2中通過其較大的尺寸和金色斜紋突出顯示)確保了在架構(gòu)層之間一致地應(yīng)用可信度原則。它指導(dǎo)評估、設(shè)計(jì)、開發(fā)和政策建立階段。這一迭代流程確保平臺能夠隨著新挑戰(zhàn)的出現(xiàn)而演變,并能夠整合新能力,保持其支持可信人工智能物聯(lián)網(wǎng)項(xiàng)目的準(zhǔn)備狀態(tài)。
該流程使用BPMN 2.0建模,以促進(jìn)清晰性、模塊化和跨團(tuán)隊(duì)協(xié)作。這種符號在工業(yè)界被廣泛采用,支持可追溯的設(shè)計(jì)、結(jié)構(gòu)化的溝通以及與開發(fā)工具和治理工作流程的潛在集成。
所提出的結(jié)構(gòu)是基于在現(xiàn)實(shí)世界的平臺治理和架構(gòu)環(huán)境中觀察到的重復(fù)模式和需求而形成的,包括在本文引用的項(xiàng)目資助下開展的早期人工智能物聯(lián)網(wǎng)項(xiàng)目中遇到的情況。在這些環(huán)境中,流程的幾個結(jié)構(gòu)元素,如多團(tuán)隊(duì)泳道結(jié)構(gòu)、迭代子流程分解以及共享映射工件的使用,在概念化和設(shè)計(jì)規(guī)劃階段已經(jīng)證明了其實(shí)際可行性。這種應(yīng)用基礎(chǔ)為內(nèi)部一致性和實(shí)際相關(guān)性提供了堅(jiān)實(shí)基礎(chǔ)。這些初步應(yīng)用將通過進(jìn)一步的評估活動進(jìn)行補(bǔ)充,包括模擬研究和試點(diǎn)部署,以深入分析該流程的適應(yīng)性和運(yùn)營價(jià)值。
第一個子流程,愿景和目標(biāo)的定義,涉及為人工智能物聯(lián)網(wǎng)平臺建立清晰的愿景并定義長期目標(biāo)。如圖3所示,該子流程從任務(wù)1.1開始,其中建立愿景,重點(diǎn)關(guān)注信任、安全、隱私和可持續(xù)性。任務(wù)1.2涉及定義長期目標(biāo),例如可擴(kuò)展性和互操作性。任務(wù)1.3和1.4可以并行進(jìn)行,涉及需求評估以及進(jìn)行基準(zhǔn)測試以收集類似平臺的見解。
該子流程的輸入包括市場分析和趨勢、利益相關(guān)者需求、可行性報(bào)告以及規(guī)范和法規(guī)。輸出是愿景和目標(biāo)文件(包括風(fēng)險(xiǎn)和機(jī)會分析以及倫理參考框架)、長期戰(zhàn)略計(jì)劃(包含風(fēng)險(xiǎn)管理計(jì)劃)以及需求列表。長期戰(zhàn)略計(jì)劃作為持續(xù)的指南,確保平臺開發(fā)和維護(hù)的所有階段都與其總體目標(biāo)和愿景保持一致。
第二個子流程,現(xiàn)有基礎(chǔ)設(shè)施的評估,如圖4所示,專注于審查當(dāng)前平臺并識別差距。任務(wù)2.1涉及對現(xiàn)有平臺進(jìn)行全面審查,以評估其優(yōu)勢和改進(jìn)領(lǐng)域。任務(wù)2.2識別與可信度相關(guān)的差距,例如安全、隱私和互操作性。映射指南、規(guī)范和法規(guī)以及長期戰(zhàn)略計(jì)劃是關(guān)鍵輸入,因?yàn)樗鼈冇兄谠u估當(dāng)前平臺在不同架構(gòu)層(傳感器、邊緣、霧、云)中對可信度原則的落實(shí)情況。此外,需求列表是一個重要的輸入。輸出是基礎(chǔ)設(shè)施評估報(bào)告(包括當(dāng)前性能指標(biāo)和成本效益分析)以及差距和改進(jìn)領(lǐng)域文件,該文件還納入了利益相關(guān)者的反饋,特別是來自當(dāng)前用戶的反饋。
![]()
在第三個子流程,可信平臺的設(shè)計(jì),如圖5所示,重點(diǎn)是將可信度原則映射到架構(gòu)層并定義組件和模塊。任務(wù)3.1使用映射指南將與可信度原則(有益、無害、自主、正義、可解釋性、合法性、技術(shù)性)相關(guān)的活動映射到人工智能物聯(lián)網(wǎng)系統(tǒng)的各個層。任務(wù)3.2涉及指定實(shí)現(xiàn)這些原則所需的架構(gòu)組件和邏輯模塊。該子流程的輸入包括基礎(chǔ)設(shè)施評估報(bào)告、差距和改進(jìn)領(lǐng)域文件、映射指南以及長期戰(zhàn)略計(jì)劃。輸出是詳細(xì)架構(gòu)設(shè)計(jì)(包括集成計(jì)劃,以確保與現(xiàn)有系統(tǒng)的兼容性)以及組件和模塊規(guī)范,包括每個模塊的詳細(xì)測試計(jì)劃。
第四個子流程,開發(fā)、實(shí)施和監(jiān)控,如圖6所示,涉及開發(fā)關(guān)鍵組件、測試與驗(yàn)證以及持續(xù)監(jiān)控。任務(wù)4.1專注于開發(fā)或集成確保安全、隱私和互操作性的關(guān)鍵組件。任務(wù)4.2涉及全面的測試與驗(yàn)證,以確保架構(gòu)達(dá)到可信度標(biāo)準(zhǔn)。任務(wù)4.3實(shí)施持續(xù)監(jiān)控,以維持平臺隨時間的可信度。該子流程的輸入包括詳細(xì)架構(gòu)設(shè)計(jì)、組件和模塊規(guī)范、映射指南以及長期戰(zhàn)略計(jì)劃。輸出包括測試與驗(yàn)證結(jié)果(附帶與治理策略一致的變更管理計(jì)劃)、監(jiān)控和數(shù)據(jù)分析報(bào)告(包含持續(xù)用戶反饋系統(tǒng))以及用戶手冊和技術(shù)指南。
![]()
第五個子流程,政策和程序的建立,與第四個子流程并行進(jìn)行,如圖7所示,涉及定義安全和隱私流程以及建立維護(hù)和更新程序。任務(wù)5.1專注于創(chuàng)建或更新安全和隱私政策,而任務(wù)5.2建立持續(xù)維護(hù)和更新的程序。該子流程的輸入包括詳細(xì)架構(gòu)設(shè)計(jì)、組件和模塊規(guī)范、映射指南以及長期戰(zhàn)略計(jì)劃。輸出包括安全和隱私政策(包括用戶和管理員的意識計(jì)劃和能力建設(shè)計(jì)劃)以及維護(hù)和更新程序,其中包含定期審查、可追溯性和政策適應(yīng)性的審計(jì)時間表。
最后一個子流程,項(xiàng)目部署準(zhǔn)備,如圖8所示,涉及文檔編制、培訓(xùn)以及對項(xiàng)目集成的支持。任務(wù)6.1專注于創(chuàng)建詳細(xì)的文檔資料并向開發(fā)團(tuán)隊(duì)提供培訓(xùn)。任務(wù)6.2提供支持和工具,以促進(jìn)新項(xiàng)目融入現(xiàn)有架構(gòu)。該子流程的輸入包括用戶手冊和技術(shù)指南、安全和隱私政策、維護(hù)和更新程序以及長期戰(zhàn)略計(jì)劃。輸出包括部署文檔(包含部署后的支持計(jì)劃)以及培訓(xùn)計(jì)劃,其中包含創(chuàng)建用戶社區(qū)或支持論壇。
4. 映射指南:將挑戰(zhàn)映射到人工智能物聯(lián)網(wǎng)架構(gòu)
在架構(gòu)的背景下,功能層指的是一個結(jié)構(gòu)化的劃分,它組織了相關(guān)的活動和共享功能目標(biāo)的組件。這些層使得構(gòu)建和維護(hù)一個可信人工智能物聯(lián)網(wǎng)平臺所必需的活動能夠得以高效地組織和管理。
功能層是通過識別平臺的具體需求和目標(biāo)來創(chuàng)建的。它們基于架構(gòu)設(shè)計(jì)原則以及復(fù)雜系統(tǒng)開發(fā)中的最佳實(shí)踐。其創(chuàng)建背后的邏輯包括:(i)需求分析,以識別平臺的需求和可信度目標(biāo);(ii)功能分組,根據(jù)共享目標(biāo)對活動和組件進(jìn)行分類;以及(iii)交互定義,以確保層與層之間順暢且高效的集成。
為了確保功能層的完整性且不遺漏任何關(guān)鍵方面,遵循了一種結(jié)構(gòu)化的邏輯。這涉及到確保每一層都涵蓋平臺的一個關(guān)鍵方面,例如政策、基礎(chǔ)設(shè)施、集成、實(shí)踐、安全、數(shù)據(jù)管理、運(yùn)營支持、倫理和可持續(xù)性。這些功能層的定義受到工業(yè)互聯(lián)網(wǎng)參考架構(gòu)(IIRA)[35]的啟發(fā)。IIRA被劃分為包括商業(yè)、運(yùn)營、信息、應(yīng)用和控制在內(nèi)的功能領(lǐng)域。選擇IIRA作為架構(gòu)基礎(chǔ)源于其在工業(yè)物聯(lián)網(wǎng)環(huán)境中被廣泛采用以及其對運(yùn)營、信息和控制領(lǐng)域的結(jié)構(gòu)化處理。然而,IIRA并沒有明確納入倫理、法律或社會維度,而這些對于確保人工智能物聯(lián)網(wǎng)系統(tǒng)的可信運(yùn)行是必不可少的。
這些領(lǐng)域與我們的功能層是可比的,因?yàn)閮煞N方法都旨在涵蓋一個穩(wěn)健平臺所需的所有必要方面。然而,所提出的框架引入了三個額外的層,這些層對于實(shí)現(xiàn)符合新興規(guī)范期望的可信人工智能物聯(lián)網(wǎng)平臺至關(guān)重要:倫理和可持續(xù)性層、支持基礎(chǔ)設(shè)施層以及最佳實(shí)踐層。倫理和可持續(xù)性層涉及人工智能物聯(lián)網(wǎng)系統(tǒng)設(shè)計(jì)和部署中的社會和環(huán)境責(zé)任,這些維度在IIRA中是缺失的。支持基礎(chǔ)設(shè)施層加強(qiáng)了部署和運(yùn)行先進(jìn)人工智能組件所需的技術(shù)基礎(chǔ),彌合了超出集成范圍的實(shí)際需求。最佳實(shí)踐層確保經(jīng)過驗(yàn)證的程序、編碼標(biāo)準(zhǔn)和生命周期管理協(xié)議得到制度化,而這些在IIRA中并沒有明確涵蓋。
為了支持這一擴(kuò)展,TrustAIoT框架基于一個社會技術(shù)可信度分類體系[21],該體系將信任概念化為一個從倫理、法律和技術(shù)維度相互作用中產(chǎn)生的系統(tǒng)屬性。新層為實(shí)施諸如自主性、透明度、公平性、可持續(xù)性和參與式治理等原則提供了結(jié)構(gòu),這些是可信人工智能的關(guān)鍵維度,而在現(xiàn)有的工業(yè)物聯(lián)網(wǎng)參考模型中并沒有正式涉及。盡管這些新增內(nèi)容尚未通過正式的實(shí)證研究或大規(guī)模部署得到驗(yàn)證,但它們在理論上基于一個已建立的社會技術(shù)分類體系,并回應(yīng)了當(dāng)前架構(gòu)基線中的概念性空白。它們的納入使得在人工智能物聯(lián)網(wǎng)環(huán)境中進(jìn)行平臺級設(shè)計(jì)能夠提前考慮監(jiān)管對齊和倫理要求,甚至在具體的用戶需求或項(xiàng)目約束明確觸發(fā)它們之前。
基于這一分層定義,所提出的人工智能物聯(lián)網(wǎng)平臺的功能結(jié)構(gòu)包括以下八個層:(i)政策與治理,(ii)支持基礎(chǔ)設(shè)施,(iii)集成,(iv)最佳實(shí)踐,(v)安全與合規(guī),(vi)數(shù)據(jù)管理,(vii)運(yùn)營支持,以及(viii)倫理和可持續(xù)性。圖9展示了IIRA功能領(lǐng)域與擴(kuò)展的TrustAIoT功能架構(gòu)之間的關(guān)系,突出了為解決人工智能物聯(lián)網(wǎng)環(huán)境特有的信任相關(guān)要求而引入的擴(kuò)展。
![]()
功能層的選擇基于它們之間的相互作用和支持,這確保了構(gòu)建可信人工智能物聯(lián)網(wǎng)平臺所需的所有必要活動都得到了解決。這些相互依賴關(guān)系對于應(yīng)對人工智能物聯(lián)網(wǎng)系統(tǒng)中可信度的多樣化挑戰(zhàn)和要求至關(guān)重要。功能層之間的關(guān)鍵關(guān)系如圖10所示。
這些關(guān)系突出了每一層如何通過以一種連貫和綜合的方式解決關(guān)鍵方面,從而為人工智能物聯(lián)網(wǎng)平臺的整體可信度做出貢獻(xiàn)。
一旦這些功能層建立起來,下一步就是回顧第2節(jié)中介紹的人工智能物聯(lián)網(wǎng)架構(gòu)的挑戰(zhàn)和特定特征,并從構(gòu)建可信系統(tǒng)的角度對它們進(jìn)行分析,這一角度在第1節(jié)中進(jìn)行了概述,并在圖1中進(jìn)行了說明,其中相關(guān)原則被正式定義。通過將這些原則應(yīng)用于所識別的挑戰(zhàn),可以系統(tǒng)地將一組信任導(dǎo)向的活動分配到相應(yīng)的功能層。
例如,在第一個功能層,政策與治理,許多可信度原則直接反映在特定類型的政策中:隱私政策與無害原則一致,透明度政策與可解釋性一致,公平政策與正義一致,可持續(xù)性政策與有益原則一致,自主政策與自主性一致,合規(guī)政策與合法性一致。盡管技術(shù)原則也與政策相關(guān),但其相關(guān)活動被分配到其他功能層,例如數(shù)據(jù)管理,在那里它們的實(shí)施更具操作性基礎(chǔ)。這種邏輯指導(dǎo)了信任賦能活動在所有其他功能層的分配。
在構(gòu)建和維護(hù)可信人工智能物聯(lián)網(wǎng)平臺的過程中,六個子流程中的四個將映射指南作為其輸入之一,如圖4至圖7所示。映射指南將功能層活動映射到適當(dāng)?shù)倪吘墶㈧F或云層,確保整個堆棧的信任一致性。這種映射練習(xí)至關(guān)重要,原因有幾點(diǎn)。首先,它確保每一層架構(gòu)全面地解決可信度原則。系統(tǒng)地將活動映射到架構(gòu)層能夠識別出緩解挑戰(zhàn)所需的特定元素和策略。這種結(jié)構(gòu)化的方法支持開發(fā)一個模塊化和可擴(kuò)展的人工智能物聯(lián)網(wǎng)平臺,使其能夠適應(yīng)不斷演變的要求和技術(shù)進(jìn)步。
總之,映射指南是該流程的關(guān)鍵組成部分,確保人工智能物聯(lián)網(wǎng)平臺是在對特定可信度挑戰(zhàn)及其在每一層架構(gòu)中如何解決的全面理解的基礎(chǔ)上開發(fā)的。這種方法不僅增強(qiáng)了人工智能物聯(lián)網(wǎng)系統(tǒng)的可靠性和安全性,還支持它們在快速演變的技術(shù)環(huán)境中實(shí)現(xiàn)可擴(kuò)展性和適應(yīng)性。
以下小節(jié)詳細(xì)說明了映射指南,針對每個功能層,列出的活動按行排列,對應(yīng)的邊緣-霧-云模型的架構(gòu)層按列排列。每個交叉點(diǎn)如果該活動在該層是必要或適用的,則標(biāo)記一個勾,否則留空。
4.1 政策與治理
政策與治理層定義了管理人工智能物聯(lián)網(wǎng)系統(tǒng)開發(fā)和運(yùn)行的政策和指南集合。它包括隱私、透明度、公平性、可持續(xù)性、自主性和合規(guī)性政策,并專注于確保架構(gòu)中的所有活動都符合倫理、法律和監(jiān)管標(biāo)準(zhǔn)。圖11展示了按架構(gòu)層分類的活動概覽,表2提供了每個活動的詳細(xì)描述。
![]()
4.2 支持基礎(chǔ)設(shè)施
支持基礎(chǔ)設(shè)施層提供了開發(fā)、實(shí)施和維護(hù)人工智能物聯(lián)網(wǎng)項(xiàng)目所需的工具和技術(shù)。這包括可解釋性工具、大數(shù)據(jù)處理、機(jī)器學(xué)習(xí)框架、編排平臺、虛擬化技術(shù)、算法、臨時存儲解決方案、固件更新以及標(biāo)準(zhǔn)化通信協(xié)議。其目的是為互操作性、可解釋性、安全的人工智能部署和資源使用優(yōu)化提供基礎(chǔ)技術(shù)支撐,同時在架構(gòu)層之間促進(jìn)透明度和安全處理。圖12展示了按架構(gòu)層分類的活動概覽,表3提供了每個活動的詳細(xì)描述。
![]()
4.3 集成
集成層促進(jìn)了分布式人工智能物聯(lián)網(wǎng)組件之間的無縫通信和互操作性。它推動了標(biāo)準(zhǔn)和開放協(xié)議的使用,通過API和連接器促進(jìn)集成,并使用中間件抽象來確保架構(gòu)的水平和垂直集成。這一層創(chuàng)建了一個協(xié)調(diào)一致且相互連接的系統(tǒng),支持高效的數(shù)據(jù)交換以及服務(wù)和平臺的集成。圖13展示了按架構(gòu)層分類的活動概覽,表4提供了每個活動的詳細(xì)描述。
![]()
4.4 最佳實(shí)踐
最佳實(shí)踐層提供了一套全面的指南和程序,旨在在整個平臺生命周期內(nèi)制度化安全、公平和有效的實(shí)踐。這包括培訓(xùn)和意識提升、持續(xù)監(jiān)控和評估、設(shè)備選擇以及數(shù)據(jù)預(yù)處理和處理的透明度。其目的是促進(jìn)最佳實(shí)踐,以增強(qiáng)所有層的安全性、隱私性、可解釋性、互操作性、公平性、可持續(xù)性、自主性和法律合規(guī)性。圖14展示了按架構(gòu)層分類的活動概覽,表5提供了每個活動的詳細(xì)描述。
![]()
4.5 安全與合規(guī)
安全與合規(guī)層確保人工智能物聯(lián)網(wǎng)架構(gòu)的安全性、隱私性和監(jiān)管合規(guī)性。它涵蓋了所有層的風(fēng)險(xiǎn)評估、審計(jì)、數(shù)據(jù)保護(hù)、網(wǎng)絡(luò)安全、加密和認(rèn)證等活動。這一層保護(hù)系統(tǒng)免受威脅,同時確保符合監(jiān)管、倫理和技術(shù)標(biāo)準(zhǔn)。圖15展示了按架構(gòu)層分類的活動概覽,表6提供了每個活動的詳細(xì)描述。
![]()
![]()
4.6 數(shù)據(jù)管理
數(shù)據(jù)管理層在人工智能物聯(lián)網(wǎng)架構(gòu)的所有層中全面管理數(shù)據(jù),確保數(shù)據(jù)處理的安全性、可解釋性、高效性和合規(guī)性。這包括數(shù)據(jù)管理政策、數(shù)據(jù)傳輸政策、可擴(kuò)展數(shù)據(jù)存儲、數(shù)據(jù)處理和數(shù)據(jù)透明度。其目的是確保數(shù)據(jù)以支持人工智能物聯(lián)網(wǎng)系統(tǒng)整體功能和完整性的方
4.7 運(yùn)營支持
運(yùn)營支持層在人工智能物聯(lián)網(wǎng)架構(gòu)的所有層中高效管理和協(xié)調(diào)資源。這包括彈性與災(zāi)難恢復(fù)計(jì)劃、文檔編制與報(bào)告以及在云、霧、邊緣和設(shè)備層的資源管理。它確保在整個人工智能物聯(lián)網(wǎng)平臺生命周期內(nèi)實(shí)現(xiàn)彈性、資源優(yōu)化和持續(xù)合規(guī)。這一層還整合了生命周期管理,以支持設(shè)備和系統(tǒng)的部署、維護(hù)、更新以及退役。圖17展示了按架構(gòu)層分類的活動概覽,表8提供了每個活動的詳細(xì)描述。
![]()
![]()
![]()
4.8 倫理與可持續(xù)性
倫理與可持續(xù)性層專注于確保人工智能物聯(lián)網(wǎng)系統(tǒng)以一種倫理、透明和可持續(xù)的方式開發(fā)和運(yùn)行。這包括社區(qū)參與、材料和流程創(chuàng)新、模型可解釋性、公平性設(shè)計(jì)以及參與式評估。其目的是促進(jìn)實(shí)踐,以增強(qiáng)用戶信任、倫理對齊和環(huán)境可持續(xù)性,貫穿設(shè)計(jì)和部署的全過程。它還確保系統(tǒng)易于使用且易于訪問,整合用戶體驗(yàn)的方面,提供直觀且有意義的互動。圖18展示了按架構(gòu)層分類的活動概覽,表9提供了每個活動的詳細(xì)描述。
![]()
5. 提高人工智能物聯(lián)網(wǎng)可信度的監(jiān)管重點(diǎn)領(lǐng)域
盡管所提出的框架有助于管理構(gòu)建可信人工智能物聯(lián)網(wǎng)系統(tǒng)的關(guān)鍵原則,但加強(qiáng)監(jiān)管環(huán)境仍然是可取的。人工智能物聯(lián)網(wǎng)的一些關(guān)鍵和獨(dú)特方面,特別是那些與人類保護(hù)或環(huán)境可持續(xù)性相關(guān)的方面,尚未在當(dāng)前法規(guī)中得到明確的處理。盡管歐洲人工智能法案為生成式人工智能等技術(shù)提供了具體條款,但它在很大程度上忽視了人工智能物聯(lián)網(wǎng)系統(tǒng),這些系統(tǒng)引入了當(dāng)前人工智能立法尚未充分處理的獨(dú)特架構(gòu)和倫理風(fēng)險(xiǎn)。
一些領(lǐng)域需要監(jiān)管加強(qiáng),包括動態(tài)風(fēng)險(xiǎn)評估、設(shè)備生命周期管理、互操作性和標(biāo)準(zhǔn)化、電子廢物管理以及對弱勢群體的保護(hù)。
鑒于人工智能物聯(lián)網(wǎng)系統(tǒng)的持續(xù)演變特性,動態(tài)風(fēng)險(xiǎn)評估是至關(guān)重要的。與人工智能法案主要采用的靜態(tài)方法相比,持續(xù)的風(fēng)險(xiǎn)評估能夠?qū)崟r識別和緩解新出現(xiàn)的威脅,幫助確保人工智能物聯(lián)網(wǎng)平臺在長期內(nèi)保持安全和彈性。
為了在整個人工智能物聯(lián)網(wǎng)設(shè)備生命周期中保持安全性和功能性,包括安全更新和退役在內(nèi)的設(shè)備生命周期治理的健全機(jī)制是必不可少的。盡管在緩解漏洞和維持性能方面發(fā)揮著關(guān)鍵作用,但人工智能法案目前在這一領(lǐng)域缺乏明確的規(guī)定。
互操作性和標(biāo)準(zhǔn)化對于實(shí)現(xiàn)異構(gòu)人工智能物聯(lián)網(wǎng)組件之間的無縫通信至關(guān)重要。盡管標(biāo)準(zhǔn)化協(xié)議具有重要作用,但當(dāng)前法規(guī)缺乏可執(zhí)行的互操作性要求。填補(bǔ)這些空白對于確保跨不同平臺、設(shè)備和服務(wù)的高效集成與協(xié)調(diào)至關(guān)重要。
為了減輕人工智能物聯(lián)網(wǎng)系統(tǒng)對環(huán)境的影響,健全的電子廢物管理協(xié)議是必不可少的。盡管迫切需要大規(guī)模地解決人工智能設(shè)備的生態(tài)足跡問題,但人工智能法案目前缺乏關(guān)于人工智能設(shè)備負(fù)責(zé)任處置和回收的具體指導(dǎo)。
最后,增加額外的保護(hù)措施和教育倡議對于支持弱勢群體至關(guān)重要,特別是那些技術(shù)素養(yǎng)有限的人群。這些措施有助于減輕與人工智能物聯(lián)網(wǎng)使用相關(guān)的風(fēng)險(xiǎn),并促進(jìn)與這些系統(tǒng)的知情、安全和公平的互動。人工智能法案應(yīng)當(dāng)要求為數(shù)字弱勢群體提供保護(hù)措施、支持界面和教育項(xiàng)目。
盡管這些觀察主要圍繞歐洲人工智能法案展開,但它們強(qiáng)調(diào)了必須解決的關(guān)鍵監(jiān)管空白,以支持可信人工智能物聯(lián)網(wǎng)系統(tǒng)的發(fā)展。
6. 結(jié)論
本文分析了人工智能物聯(lián)網(wǎng)(AIoT)系統(tǒng)的特定架構(gòu)特征,這些特征使它們區(qū)別于傳統(tǒng)的人工智能架構(gòu),并特別關(guān)注了它們所提出的獨(dú)特的與可信度相關(guān)的挑戰(zhàn)。
在識別了這些特定性和挑戰(zhàn)之后,本文提出了信任賦能活動的結(jié)構(gòu)化分類,并將它們映射到八個功能層,隨后通過一個名為映射指南的資源將這些功能層映射到邊緣-霧-云計(jì)算架構(gòu)中。基于這一指南,定義了構(gòu)建和維護(hù)可信人工智能物聯(lián)網(wǎng)平臺的結(jié)構(gòu)化過程。共同構(gòu)成了TrustAIoT框架,這是本文在人工智能物聯(lián)網(wǎng)系統(tǒng)中面向生命周期的可信度治理的核心貢獻(xiàn)。
關(guān)于未來的研究,還有幾個機(jī)會可以擴(kuò)展和驗(yàn)證TrustAIoT框架。這些包括通過在現(xiàn)實(shí)世界的人工智能物聯(lián)網(wǎng)平臺中進(jìn)行試點(diǎn)實(shí)施進(jìn)行實(shí)證測試,開發(fā)工具包和模板以在工程工作流程中實(shí)施映射指南,以及將框架整合到認(rèn)證流程、合規(guī)審計(jì)和平臺級治理中。進(jìn)一步的工作還可以探索該框架如何適應(yīng)新興的人工智能物聯(lián)網(wǎng)范式,例如聯(lián)邦智能、自主邊緣編排或自適應(yīng)信任管理。
通過將架構(gòu)設(shè)計(jì)、治理流程和倫理原則對齊,TrustAIoT框架為希望在整個人工智能物聯(lián)網(wǎng)生命周期中嵌入可信度的組織提供了一個結(jié)構(gòu)化的基礎(chǔ)。其分層結(jié)構(gòu)和以流程為導(dǎo)向的方法旨在支持逐步采用、監(jiān)管對齊和長期可持續(xù)性。
原文:https://www.sciencedirect.com/science/article/pii/S2542660525002641
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.