5 ways to make AI more trustworthy
讓人工智能更信賴的5種方法
https://www.colorado.edu/today/2025/10/21/5-ways-make-ai-more-trustworthy
本文概述了如何使人工智能(AI)更具可信度的五種方法,由科羅拉多大學博爾德分校的研究人員提出:
了解用戶:信任AI的程度因人而異,受個人經歷、價值觀、文化信仰和大腦結構的影響。開發者需要考慮用戶的社會文化規范、偏好和技術素養,例如為老年用戶或技術能力較低的用戶提供更簡單的語言和更長的響應時間。
可靠、倫理和透明:可信的AI工具必須準確、一致地完成任務,確保安全、保護隱私、避免偏見和歧視,并在失敗時不會造成傷害。透明性也很重要,例如在醫療診斷中,AI應與專家合作并透明地展示其推理過程。
考慮上下文:AI工具應針對特定問題的上下文設計。例如,在修復歷史建筑的場景中,研究人員提出了一個名為“PreservAI”的概念性工具,用于平衡成本效益、節能、歷史完整性和安全性等相互競爭的利益。
易于使用并征求用戶反饋:AI工具應提供良好的用戶體驗,減少錯誤,并允許用戶與系統互動和挑戰結果。用戶反饋對于改進工具和建立信任至關重要。
在信任喪失時適應并重建信任:人們對新技術的信任可能會隨時間變化。例如,微軟的“Tay”聊天機器人因發布不當內容而失敗,但后來推出的“Zo”通過更強的內容過濾重建了信任。盡管完全消除風險是不可能的,但當人們愿意使用AI并分享數據時,系統會變得更加可靠和有用。
總之,信任不僅是技術的優勢,也是人們從AI中獲得更個性化和有效支持的途徑。
![]()
自動駕駛出租車正在席卷全國,并且在未來幾個月內可能會在科羅拉多州開始運營。會有多少人排隊去乘坐呢?
這取決于我們的信任程度,阿米爾·貝赫扎丹(Amir Behzadan)說道。他是科羅拉多大學博爾德分校土木、環境與建筑工程系的教授,同時也是該校行為科學研究所(Institute of Behavioral Science, IBS)的研究員。
他和他在科羅拉多大學博爾德分校的連接信息與建成環境研究(Connected Informatics and Built Environment Research, CIBER)實驗室的研究團隊正在挖掘新的見解,研究我們在日常生活中可能遇到的人工智能(AI)技術如何贏得我們的信任。他們創建了一個框架,用于開發能夠造福人類和社會的可信人工智能工具。
在《人工智能與倫理》(AI and Ethics)雜志的一篇新論文中,貝赫扎丹和他的博士生阿米塔·達比里(Armita Dabiri)基于該框架創建了一個概念性人工智能工具,該工具融入了可信度的要素。
“作為人類,當你讓自己暴露在潛在傷害之下,假設他人有善意時,你是在信任他們。”貝赫扎丹說,“現在你可以將這一概念從人與人的關系轉移到人與技術的關系中。”
信任是如何形成的
貝赫扎丹研究了人類對用于建成環境的人工智能系統的信任構建模塊,這些環境包括自動駕駛汽車、智能家居安全系統、移動公共交通應用程序以及幫助人們進行團隊項目合作的系統。他認為,信任對于人們是否會采用和依賴這些系統至關重要。
根據貝赫扎丹的說法,信任深深植根于人類文明之中。自古以來,信任幫助人們合作、分享知識和資源、形成社區聯系以及分配勞動。早期人類開始形成社區并信任他們內圈中的人。
不信任作為一種生存本能出現,使人們在與群體外的人互動時更加謹慎。隨著時間的推移,跨群體的貿易促進了不同群體之間的互動和相互依賴,但并沒有消除不信任。
貝赫扎丹指出,我們可以在現代對人工智能的態度中看到這種信任與不信任動態的回響,尤其是當它是由我們可能視為“局外人”的公司、政府或其他人開發的時候。那么,可信的人工智能是什么樣的呢?以下是貝赫扎丹框架的五個主要要點。
它了解其用戶。
許多因素影響著我們對新人工智能技術的信任程度。我們每個人都有自己對信任的個人傾向,這受到我們的遺傳、價值體系、文化信仰,甚至我們大腦連接方式的影響。
“我們對信任的理解真的因人而異,”貝赫扎丹說。“即使你有一個非常值得信賴的系統或人,我們對那個系統或人的反應也可能非常不同。你可能信任他們,而我可能不信任。”
他說,開發者需要考慮誰是人工智能工具的用戶。他們遵循哪些社會或文化規范?他們的偏好可能是什么?他們的技術素養如何?
例如,貝赫扎丹說,亞馬遜Alexa、谷歌助手和其他語音助手為年長者以及不太精通技術的人提供了更簡單的語言、設備上的更大文本顯示和更長的響應時間。
它可靠、道德且透明。
技術可信度通常指的是人工智能工具的工作效果、安全性和用戶理解其工作原理及數據使用方式的難易程度。
貝赫扎丹說,一個最值得信賴的工具必須準確且一致地完成其工作。如果它失敗,它不應該傷害人、財產或環境。它還必須提供對未經授權訪問的安全防護,保護用戶的隱私,并能夠在意外變化中適應和繼續工作。它還應該沒有有害的偏見,并且不應該在不同用戶之間進行歧視。
透明度也是關鍵。貝赫扎丹說,一些人工智能技術,如用于信用評分或貸款審批的復雜工具,像一個“黑箱”,不允許我們看到我們的數據是如何被使用,或者一旦數據進入系統后去了哪里。他說,如果系統可以分享它如何使用數據,用戶可以看到它如何做出決策,那么更多的人可能愿意分享他們的數據。
在許多環境中,比如醫療診斷,根據貝赫扎丹的說法,最值得信賴的人工智能工具應該補充人類的專業知識,并與專家臨床醫生透明地分享它們的推理。
人工智能開發者不僅要努力開發可信賴、道德的工具,還要找到方法來衡量和提高其工具在為預期用戶推出后的可信度。
它會考慮上下文。
人工智能工具的用途數不勝數,但特定的工具應該對其試圖解決的問題的上下文保持敏感。
在最新的研究中,貝赫扎丹(Behzadan)和共同研究者達比里(Dabiri)創建了一個假設場景,其中一支由工程師、城市規劃師、歷史保護專家和政府官員組成的項目團隊被委以重任,負責修復和維護丹佛市中心的一座歷史建筑。這類工作可能很復雜,涉及相互競爭的優先事項,比如成本效益、節能、歷史完整性以及安全性。
研究人員提出了一個名為“PreservAI”的概念性人工智能輔助工具,該工具可以被設計成平衡各種相互競爭的利益,納入利益相關者的輸入,分析不同的結果和權衡,并與人類合作而不是取代他們的專業知識。
理想情況下,人工智能工具應該盡可能多地納入上下文信息,以便可靠地工作。
它易于使用,并詢問用戶它的表現如何。
人工智能工具不僅應該高效地完成工作,還應該提供良好的用戶體驗,盡量減少錯誤,吸引用戶,并建立解決潛在挫折的方法,貝赫扎丹說道。
建立信任的另一個關鍵要素?實際上讓人們使用人工智能系統并挑戰人工智能的結果。
“即使你擁有最值得信任的系統,如果你不讓人與它互動,他們也不會信任它。如果只有少數人真正測試過它,你不能期望整個社會都信任并使用它。”他說道。
最后,利益相關者應該能夠就工具的工作效果提供反饋。這種反饋有助于改進工具,使其在未來用戶眼中更具可信度。
當信任喪失時,它會調整以重建信任。
我們對新技術的信任可能會隨著時間的推移而改變。一個人可能通常信任新技術,并且對乘坐自動駕駛出租車感到興奮,但如果他們讀到關于出租車發生事故的新聞故事,他們可能會開始失去信任。
貝赫扎丹表示,這種信任可以稍后重建,盡管用戶可能會對工具保持懷疑態度。
例如,他提到,微軟在2016年推出的“Tay”聊天機器人在其發布后的幾小時內就失敗了,因為它從社交媒體上吸收了有害語言,并開始發布冒犯性的推文。這一事件引發了公眾的憤怒。但在同一年晚些時候,微軟發布了一個新的聊天機器人“Zo”,它擁有更強大的內容過濾和其他防護措施。盡管一些用戶批評Zo是一個“受限”的聊天機器人,但其改進的設計幫助更多人信任了它。
貝赫扎丹表示,完全消除信任人工智能所帶來的風險是不可能的。人工智能系統依賴于人們愿意分享數據——系統擁有的數據越少,其可靠性就越低。但數據被濫用或人工智能未能按預期工作總是存在風險的。
然而,當我們愿意使用人工智能系統并與它們共享數據時,這些系統就會在其工作中變得更加出色,也更具可信度。盡管沒有任何系統是完美的,但貝赫扎丹認為其好處大于缺點。
“當人們對人工智能系統有足夠的信任,愿意分享他們的數據并與它們有意義地互動時,這些系統可以顯著改進,變得更加準確、公平和有用。”他說道。
“信任不僅僅是對技術的好處;它也是人們從人工智能中獲得更多個性化和有效支持的途徑。”
原文:https://www.colorado.edu/today/2025/10/21/5-ways-make-ai-more-trustworthy
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.