「查重 0%!這下穩了,畢業肯定沒問題!」某高校研究生小李(化名)看著電腦屏幕上的論文查重報告,長舒一口氣,暗自慶幸自己找對了「神器」—— 近期爆火的「龍蝦」。可當小李信心滿滿地在組會上匯報自己「精心撰寫」的論文時,導師突然臉色鐵青,拍著桌子貼臉開大:
「這篇論文里的參考文獻,有 3 篇根本不存在!你告訴我,這是你自己寫的?還想畢業嗎?」
一句質問,讓小李瞬間慌了神 ......
近期,「養龍蝦」突然在網上爆火,引發了網友們的熱議。當然,這里的「龍蝦」不是咱們平時吃的龍蝦,而是 OpenClaw,即一類能直接操作電腦、執行任務的智能體工具。
![]()
圖片來源:GitHub
「龍蝦」之所以會火,并不只是因為它會聊天,而是因為它開始「會辦事」了:能讀網頁、調接口、裝插件、處理本地文件 ……
很多人把這件事看成一個技術八卦,但龍蝦的爆火其實是一個信號——AI 已經不僅是一個停留在聊天框里的工具了,它正在全面闖入我們的生活。
AI 越來越能干,
風險也在同步擴張
隨著「龍蝦」的爆火,人們很快認識到其中的風險,OpenClaw 也從效率神器變成了安全焦點。
過去大家用生成式 AI,大多是讓它寫一段話、改一封郵件、總結一篇文獻。但現在不一樣了,諸如 OpenClaw 等 AI 工具開始被授予更高權限,可以訪問本地文件系統、讀取環境變量、調用外部 API,甚至安裝擴展功能。
能力越強,失控代價也就越高。一個會自動執行任務的 AI,如果判斷錯了、被注入了惡意提示,或者接入了不可信插件,帶來的不再只是幾句胡說八道,而可能是刪庫、泄密、誤發、被控。
因此,國家互聯網應急中心已經明確提示,這類工具默認安全配置脆弱,可能出現提示詞注入、密鑰泄露、誤刪郵件、惡意插件投毒以及高中危漏洞被利用后導致系統被控、隱私信息和敏感數據泄露等問題。
![]()
圖片來源:公眾號截圖
而如果說「龍蝦」讓人看到的是技術安全風險,那么最近另一條更刺眼的新聞,則讓人看到AI 進入知識生產后的規范風險。
上個月,一項發布在預印本平臺 arXiv 的研究對 13 個大預言模型、40 個研究領域做了引用有效性審計,發現所有模型都會生成虛假的參考文獻,比例從 14.23% 到 94.93% 不等。
研究還分析了 2020-2025 年 56,381 篇頂級 AI/ML 與安全會議論文中的 220 萬條引用,發現其中 604 篇論文包含無效或虛構引用,而這一問題在 2025 年同比又上升了 80.9%。
![]()
圖片來源:網頁截圖
此外,Nature 在 3 月初報道,一項針對 13 個主流大模型的測試發現,這些模型在多輪誘導之下都可能不同程度地協助學術欺詐或垃圾論文的生產,只是不同模型抵抗程度不同而已。
![]()
圖片來源:網頁截圖
Nature 在去年秋天其實已經發出過警報。根據相關報道,ChatGPT、Gemini 等文本生成工具可以把已有論文改寫成「幾乎相同但足以繞過常規查重」的 copycat papers,數據分析顯示,這類由 AI 改寫的仿寫論文已經滲入期刊體系,估計已有數百篇被發表。
換句話說,當前的問題已經不是「AI 會不會犯錯」,而是「當人主動想越線時,AI 會不會成為幫兇」。
至少就目前的情況,答案并不樂觀。
面對 AI 真正成熟的態度
不是封殺而是劃清邊界
盡管針對 AI 的使用存在一定風險,但對于 AI,真正成熟的態度不應是一禁了之,而是應該明確邊界、保留空間、落實責任。
國家自然科學基金委在 2026 年項目申請通知里寫得很清楚,申請人可以借助生成式 AI 跟蹤研究動態、收集整理參考文獻,但必須由人工核實信息和參考文獻的真實性與準確性,申請人對生成內容負責,并且要全面如實聲明使用情況;同時又明確規定,不得使用生成式 AI 直接生成申請書,不得使用未經核實的生成內容。
![]()
圖片來源:網頁截圖
這個表述其實非常有代表性:可以輔助,不可替代;可以借力,不可甩責。
科技部編制的《負責任研究行為規范指引(2023)》以及對該文件的官方解讀,態度同樣如此。文件明確提出,不得抄襲、買賣、代寫申報材料,不得使用生成式人工智能直接生成申報材料。
解讀進一步說明,面對人工智能帶來的新機遇和新問題,管理重點不在于否認技術,而在于依規合理使用:從研究實施、數據管理、成果署名與發表、文獻引用等方面都給出了邊界,同時明確不得將生成式 AI 列為成果共同完成人,不得直接使用未經核實的 AI 生成參考文獻。
高校層面的態度也越來越清晰。
清華大學發布《清華大學人工智能教育應用指導原則》時,用了一個非常準確的表述 ——「積極而審慎」。一方面,學校鼓勵學生在遵守課程規定的前提下積極探索 AI 輔助學習;另一方面,又明確嚴禁將 AI 生成的文本、代碼等內容直接復制或簡單轉述后作為學業成果提交。
它不是反對學生用 AI,而是反對學生把本該自己完成的訓練,外包給 AI。
![]()
圖片來源:網頁截圖
復旦大學的規定更直接。其本科畢業論文 AI 工具使用規定明確提出「六個禁止」,其中就包括研究設計、數據分析、論文撰寫等核心環節;一旦構成學術不端(不當),還會面臨紀律處分、取消學位申請資格、撤銷學位等后果。
中國傳媒大學的做法則把「可用」和「不可用」切得更細。其學術刊物關于規范生成式 AI 工具使用的征求意見稿明確提出,AI 只能用于文獻檢索、語言潤色、格式優化、基礎數據整理與可視化等非核心研究環節;禁止它參與論文主體框架、核心觀點、具體內容、數據來源的生成。同時,作者投稿時還要主動提交書面說明,告知工具名稱和版本、使用時間、生成內容清單、原始提示詞以及輸出記錄截圖。
![]()
圖片來源:網頁截圖
事實上,大家不難發現,制度并不反對使用 AI 來提高效率,但制度堅決反對使用 AI 完成本屬于人的學術勞動、判斷責任和誠信義務。當前的核心焦點已經不在于 AI 能不能用,而是在于「哪些環節可以用,哪些環節絕不能碰;用了之后,誰來擔責」。
AI 應該是「助手」,
而不應成為「槍手」
對于個人而言,在使用 AI 時,應該守住這樣一條底線:AI 應該是「助手」,而不應成為「槍手」。
什么叫「助手」?
就是 AI 幫你做那些重復的、機械的、耗時的、但不構成核心原創性的工作。比如檢索文獻、整理摘要、潤色語言、優化格式、梳理思路、做初步代碼排錯、生成會議紀要、做基礎可視化。這些工作并不輕,但它們的共同點是:最后的判斷仍然在你,責任仍然在你,創造性的核心環節也仍然在你。
什么叫「槍手」?
就是 AI 開始替你完成本不該外包的核心工作:替你編數據、造圖表、虛構參考文獻、捏造實驗結果、生成研究設計、代寫論文主體、直接寫基金申請,甚至幫你把一篇并不存在的研究包裝得像真的一樣。
所以,當下最該警惕的并不是「AI 會不會取代人」,而是「人會不會主動把自己的責任交給 AI」。
一旦 AI 成了槍手,最先被摧毀的是信任。你不知道這篇文章有多少是作者自己做的,你不知道這些引用是否真實存在,你甚至不知道這段看起來條理清晰的話是不是建立在真實材料之上。AI 不會為一篇造假的論文承擔處分,不會為一個虛構的數據集承擔后果,也不會為一個錯誤決定承擔名譽風險,承擔后果的永遠還是人。
從「龍蝦」引發的安全焦慮,再到基金委、高校、期刊不斷細化的規則,我們其實應該清晰認識到:AI 進入生活和科研,幾乎是不可逆的。
真正理性的態度,從來不是一邊高喊 AI 萬能,一邊把思考、核驗、寫作、判斷全部外包出去;也不是一看到風險就退回到什么都別用的舊世界。
成熟的做法只有一個——讓 AI 回到它該在的位置,技術可以越來越強,但人對邊界的意識反而必須更清楚。
否則,最后失控的不是機器,而是我們自己對真實、能力和誠信的底線。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.