AI“傷人”,“應戰”還是“諒解”?這一在模糊邊界探索的問題尚未有定論。人類和機器的“戰爭”仍在繼續。
文丨新京報記者胡倩 實習生 申鈺棋
編輯丨胡杰
校對丨趙琳
?本文5700字閱讀10分鐘
59歲的律師黃貴耕決定向AI“宣戰”。
在他提供的證據里,百度AI生成了一段介紹信息,黃貴耕被指威脅法官、向執行局長介紹賄賂,還有偽造印章、非法吸收公眾存款等刑事犯罪事實……
黃貴耕發現,在百度檢索自己名字時,會被自動關聯“律師黃貴耕有沒有犯罪”“律師黃貴耕為什么不建議找”等負面信息。他認為百度構建了關于自己的“負面信息傳播閉環”。
黃貴耕告訴新京報記者,百度AI生成的虛假信息被傳播給他所代理案件的委托人及委托人家屬,給他帶來巨大的困擾與損失。
2025年9月,他以侵犯名譽權為由,將百度AI背后的百度公司訴上法庭。黃貴耕認為,被視為造福人類的機器“主動傷人”,其開發運營者具有不可推卸的責任。
這并非AI首次與人類“開戰”。多位受訪者告訴新京報記者,2025年以來,他們同樣遭遇了來自機器的“攻擊”:各大搜索平臺上,AI針對用戶生成負面信息,“言之鑿鑿”地對其判刑、定罪,又或是“挑唆”關聯其他負面事件。
人與機器對簿公堂,讓包括法官在內的各界人士都感到棘手:“該怎么判?我們也在思考。”一位資深律師提出,為了保護科技創新,人類應當“忍耐”機器犯的錯誤。也有學界專家對此說法表示反對,認為機器背后的公司應當肩負保護用戶權益的責任。
AI“傷人”,“應戰”還是“諒解”?這一在模糊邊界探索的問題尚未有定論。人類和機器的“戰爭”仍在繼續。
“對手”不是人類
2025年5月21日,黃貴耕收到一位案件委托人發來的四張截圖。截圖內容是以“黃貴耕律師”為關鍵詞生成的百度AI檢索內容。
百度AI總結全網結果顯示,“黃貴耕律師”涉及偽造公司印章案、保證期間審查案和威脅法官案。內容的末尾還有段“特別提醒”:“需注意,檢索結果中未顯示其作為辯護律師的成功案例,所列案件均為其作為涉案人或代理人的負面事件。”
![]()
2025年5月,律師黃貴耕收到案件委托人發來的四張截圖,截圖內容是以“黃貴耕律師”為關鍵詞的百度AI檢索結果。受訪者供圖
看完截圖,黃貴耕先是疑惑,繼而憤怒。委托方的責問很直接:請律師來打官司,結果律師自己都負面纏身,我們該怎么相信你?黃貴耕激烈地反駁:純屬毀謗,都是沒來由的事,或是有人在“搞”我。對于這些解釋,委托人并不滿意,只是模棱兩可地表示再查一下。
黃貴耕最先懷疑是同行惡性競爭,有人故意在網上抹黑自己。他想起自己曾與一位同行有過案源競爭,當天,黃貴耕先向當地司法局提交了一份“偽造網絡信息惡意詆毀同行”名義的投訴信。
花了幾天時間,黃貴耕才找到真正的“對手”。更換不同的設備,又多次變換檢索關鍵詞,他發現,雖然每次的生成內容會有細微差別,但“百度AI總結全網搜索結果”的提示詞總是出現在最前端。黃貴耕反應過來,這些信息并不由人書寫,而是AI主動生成。
AI還標注出了信息來源:“以上案例均來自司法機關公開通報”。黃貴耕查到,AI聲稱的上述通報包括人民法院報、福建法治網、最高人民檢察院、北京市司法局行政處罰決定書......但一切又全是錯的。
黃貴耕發現,所有信息都被“張冠李戴”“移花接木”了:“威脅法官”和“偽造印章”的情節出自新聞報道,但AI將經過匿名處理的“律師黃某”“法律顧問黃某”篡改為他本人,還關聯上他所在的律師事務所;“偽造擔保函”的內容出自最高檢指導的案例,AI又將當事人“黃某平”替換為他的名字;“刑事犯罪被判刑和執業資格吊銷”則是將一名匿名處理的黃姓女律師的處罰信息“嫁接”至他的名下。
同為律師,或者同樣姓黃,AI就有可能進行信息的挪用,讓相關內容被海量用戶檢索到。“按照這種邏輯,機器會造成無差別傷害,每個人都可能成為AI的受害者,”AI在黃貴耕心里的“客觀、理性、中立”形象轟然崩塌。
之后,黃貴耕撤回對律師同行的投訴,轉而以“百度AI惡意生成虛假負面信息,嚴重損害名譽繼而摧毀律師執業信譽”為名,向百度公司提起民事訴訟,索賠各項損失109萬元。
每個人都可能成為AI的受害者
要打贏機器背后的大公司,并不是一件容易的事,黃貴耕保存了截圖與錄屏,前往公證處對百度AI檢索結果、生成路徑固定證據,與代理律師一道準備了起訴狀。他甚至準備了一份“百度AI虛構事實侵權第一案”的詳細解釋稿。
![]()
2025年11月,北京海淀區人民法院受理黃貴耕訴百度公司的人格權糾紛案。受訪者供圖
某種程度上,這也符合黃貴耕的一貫行事風格。嚴格算起來,他是一名剛執業兩年的“新人律師”。此前,他是一名有著近二十年經歷的法治記者,“嚴肅、嫉惡如仇,甚至較真。”黃貴耕認為,他一貫謹慎地維護著個人聲譽,這也使得網上有關他的介紹信息極少,更遑論負面。“但現在這一切都被AI毀了!”
2025年11月,這起針對AI主動生成虛假信息的名譽權侵權案件被北京海淀區人民法院受理。
事實上,人和機器之戰的“受害者”并非黃貴耕一人,“無差別傷害”正在發生。多位受訪者告訴新京報記者,2025年以來,在各平臺搜索自己、身邊人或公眾人物的信息時,AI給出的總結里頻繁出現風險信息:或是將人和爭議事件關聯,或是憑空編造受罰、定罪、判刑這類負面風險情節。
2025年底,37歲的冀承祥在百度檢索姓名時,發現自己同樣遭受了AI的“詆毀”:百度AI將“組織賣淫罪”放在他的早年真實求學經歷之后,稱他被法院判處有期徒刑五年六個月,而這一信息同樣“嫁接”自另一同名同姓人士。
“我剛考上編,AI就說我涉嫌嚴重違紀違法,正在接受紀律審查和監察調查。”一位企業職員向新京報記者反映,自從包含她姓名、考試分數和崗位信息的文件在網上公示一段時間后,她的相關信息總是與他人的違法處罰行為關聯上,“我同事都暗暗打聽我是不是要出事了,感覺領導看我的眼神都很‘怪異’。”
2025年11月底,在治安違法記錄封存爭議事件中,有網友在搜索治安管理法修改的積極推動者、全國人大代表朱征夫信息時,AI就曾顯示朱征夫兒子有吸毒的經歷。在社交平臺上,這一信息迅速傳播,引發針對朱征夫的嚴重網絡暴力。之后,朱征夫報警并公開向媒體辟謠,這一內容才從平臺撤下。
北京云嘉律師事務所高級合伙人顧金焰律師告訴新京報記者,2025年7月,他代理了一起訴AI侵犯用戶名譽權的案件,當事人的遭遇與黃貴耕十分相似:在用百度搜索引擎檢索當事人姓名與近況時,AI生成其“被判刑10年3個月”內容,配以標題“十年牢獄路,前路待光明”,并在生成信息前醒目標注“綜合全網54篇真實經驗”。而經過核查,這依然是一次手法粗糙的“張冠李戴”,刑期十年的信息源于某篇新聞報道中的同姓人士。
AI為何“攻擊”人類?
2025年12月,顧金焰代理的“AI名譽侵權案”在北京互聯網法院首次開庭。
第一層共識并不難達成,雙方都承認:機器犯了錯、惹了禍。“造成這樣的誤會,我們也深感歉意。”法庭上,平臺方代理律師表示,平臺搜索引擎的AI功能內容出現了錯誤,在整合信息內容時,大模型機器將原告與另一被判刑的同姓新聞當事人不當關聯,導致了這場訴訟之戰。
“但沒有人該為AI犯的錯承擔責任。”接受新京報記者采訪時,百度方代理律師將AI的“攻擊”行為解釋為“AI幻覺”,他認為,面對海量信息,像人一樣,AI也會犯錯,這是無法避免的事。而錯誤也并非原告主張的“百度AI故意為之”,錯誤信息由機器的技術代碼自動生成,“不可控、難以避免。”
也因此,百度方代理律師向新京報記者表示,使用AI的平臺對這一錯誤不具有可預見性:“平臺將一把‘菜刀’賣出去了,并不知道AI會用它來殺人,為什么要為‘賣菜刀’的行為負責呢?”
這一觀點遭到了顧金焰的反駁:“平臺不是被動地‘售賣’無差別工具,它不止提供算法模型,還提供生成信息的推送和發布服務。菜刀不會選擇主動砍向誰,而基于平臺訓練數據、算法邏輯和權重打造的AI卻可以主動砍向每個人的名譽權,這是出廠時就存在的‘錯誤’。”他認為,平臺對這一問題采取了放任的態度,應當為AI承擔侵權責任。
新京報記者從多方獲悉,截至發稿,該案尚未宣判。
![]()
2026年1月初,發現AI搜索生成針對他的“組織賣淫罪”錯誤信息后,冀承祥向百度發送郵件說明相關情況,并希望得到處理反饋。受訪者供圖
對于長期從事搜索引擎AI開發業務的微軟資深工程師王斌(化名)而言,平臺的技術設計、配套措施和監管審核跟不上,這場人與機器的“戰爭”并不難理解。從技術層面來看,此類案件中AI的“攻擊”現象屬于“低級錯誤”:網頁內容語缺乏深度語義分析,無法區分不同個體身份,又缺乏了多輪語義校驗審核和把關機制。
王斌表示:“技術層面完全可以實現‘風險信息分級驗證’,目前國際上也已經有平臺落地相關機制。”但是,百度的AI產品服務或許過于粗糙,這很大概率取決于平臺的取舍平衡:“背后可能是節省預算、減輕服務器負載的商業考量,更精細的多輪校驗流程意味著更高的算力和成本投入。”
百度和其他平臺是否可以實現風險信息分級驗證,新京報記者聯系包括百度在內多家接入AI功能的平臺方人員,截至發稿,未獲有效回復。
黃貴耕也試過在其他搜索引擎上輸入“黃貴耕律師”等關鍵詞進行搜索,他發現,大部分平臺的AI功能并不會將其姓名身份關聯負面虛假信息,甚至會主動標注“被處罰的黃姓匿名人士不是黃貴耕律師”。他認為,AI的形象是“惡”是“善”,仍然由其背后的平臺控制。
多位受訪者指出,被AI“傷害”后,他們先是憤怒,之后便尋找反饋、申訴途徑:“找了半天反饋入口,甚至找上了平臺客服,即使多次投訴,也還得等待好多天,內容才可能被下架。”
2026年1月初,發現AI搜索生成針對他的“組織賣淫罪”錯誤信息后,冀承祥向百度發送郵件說明相關情況,百度隨后向其致電核實情況,并將這一問題解釋為“AI抓取有誤,后續將加強對生成結果的監管”。但截止發稿,冀承祥發現,關于他的錯誤信息仍未得到完全更正或刪除。
一位受訪者提供的截圖顯示,她2025年9月反饋的錯誤信息內容,也至今未得到處理反饋。
新京報記者以用戶名義咨詢一名負責百度搜索AI業務線的工作人員,對方表示,自2025年年初推出AI搜索功能,他們便收到一定數量的用戶反饋,其中不乏負面、投訴內容:“確實有人指出AI生成了錯誤的內容,也有不當關聯信息的情況。”但針對這一問題,對方并未給出“用戶可以進行投訴反饋”外的解決方案。
應當“諒解”AI犯錯嗎?
對于傳統的網絡服務場景,發現被侵權后,用戶向平臺提供舉證材料,平臺核實后予以刪除。這類“通知-刪除”模式是常規解決方案。但是,在此前辦理過涉AI侵權類案件的北京互聯網法院法官劉承祖看來,相較于傳統的網絡服務提供者,人工智能服務提供者在技術特征、數據內容處理和內容展示等方面存在顯著差異,這使得“通知-刪除”規則能否直接類推適用于人工智能服務提供者的侵權行為成為實踐中爭議的焦點。
“人工智能生成內容究竟屬于什么?是單純呈現平臺上已有的公開信息,還是屬于平臺創作的作品?換言之,AI在其中究竟只是扮演了被動的信息展示者角色,還是已然成為相對主動的信息生成整合者,其技術是中立的還是有偏向的?平臺應當承擔多少注意義務?‘通知-刪除’規則、技術中立原則是否適用?這都需要根據AI算法模型背后的訓練數據、應用邏輯綜合判斷,我們也無法下一個普適性的結論,需要結合個案的技術細節、侵權場景等綜合分析認定。”
他表示,在人工智能生成物引發的人格權侵權糾紛案件中,司法實踐正面臨“法律適配”與“規則探索”的雙重挑戰:一方面,現有法律框架難以完全適配AI技術的快速迭代,法律法規層面仍存在一定的模糊地帶。另一方面,在現有法律框架下,針對“AI侵權”案件可供參考的裁判案例數量并不多,在司法實踐中仍需不斷探索完善人工智能服務提供者的權責邊界。
對于這場人與機器的“戰爭”,究竟站在哪方,各方的考量并不相同。
“為保護技術創新,社會需要給予AI試錯的空間,一定程度上容忍此類情況的發生。”一位長期研究知識產權領域的高校法學教授認為,他理解被侵權用戶的處境,但在當前場景下,當公民人格權與企業技術創新產生沖突,且平臺過錯不明顯時,應當適當傾斜于技術創新者:“這是對大模型創新的保護與激勵。”
“整個互聯網時代,日本和歐洲因過嚴的監管和過高的要求,阻礙了全球性的創新型互聯網公司的成長,而中國和美國(這類公司)則不斷涌現、蓬勃生長。”他進一步解釋。
“法律與司法在鼓勵技術發展與保護個人權利間尋求平衡點,不應簡單要求公眾‘容忍錯誤’。”長期研究數據法治領域的華東政法大學刑事法學院副教授、上海市數字化轉型與數字法治建設研究創新團隊研究員房慧穎給出了不同的立場。
她認為,當技術應用對公民名譽權等法益造成現實且嚴重的損害時,法律必須提供有效救濟。
她告訴新京報記者,“通知-刪除”這一后端補救機制難以全面規制平臺的行為,“應當升級平臺治理規則,履行保證人的義務,而非放任錯誤內容或有害內容生成。”平臺向公眾提供此類服務,理應承擔更嚴格的研發注意義務。
她提出,“分級管理”或許是破解這一兩難困境的關鍵。“平臺應當構建精細化的治理體系:對于普通類別信息,例如生活資訊、娛樂消息,可以適當簡化審核流程。但涉及‘違法’‘犯罪’等可能嚴重影響公民聲譽的敏感信息時,必須使用權威數據庫,或要求多重交叉信源驗證,確保信息準確。”
這一方案也得到了資深AI工程師王斌的認可。他強調,頭部AI企業作為行業標桿,理應承擔起風險信息多重驗證的主體責任,這既是合規要求,也是行業可持續發展的基礎。
“隨著技術迭代,公眾對AI檢索精度和可靠性的期待只會越來越高。”劉承祖認為,隨著技術不斷發展,AI檢索的精度和可靠性也會逐步提高,他希望能通過典型案例的裁判指引,推動人工智能技術服務提供者加強技術應用的風險防控,優化平臺算法設計,推動人工智能技術在合法合規的軌道上健康發展。
人與機器的“戰爭”仍在繼續,兩起訴訟的當事人均選擇不“諒解”。黃貴耕表示,除了要一個道歉,他還希望借此為人類“討個公道”:人在機器、大公司面前是弱勢,憑什么要我“諒解”你?
星標“剝洋蔥people”
及時接收最新最熱的推文
━━━━━━━━━━━━━━━
洋蔥話題
你對此事怎么看?
江蘇科大“首席科學家”郭偉的假面人生
農民工劉詩利的體面
80后,等來考公“復活賽”
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.