![]()
來源 | 民主與法制時報
作者 | 馮玨
中國社會科學院法學研究所編審
《法學研究》雜志副主編
當深度求索(DeepSeek)成為今年春節期間最熱門的話題,當琳瑯滿目的大模型輔助科研的教程霸屏各大平臺,當各高校紛紛開設大模型應用相關講座甚至課程時,法學期刊編輯不僅要面對數量不斷攀升的來稿,而且越來越擔心手頭處理的稿件甚至已刊發的稿件實乃人工智能(以下簡稱AI)所作,這將徹底顛覆法學知識生產的學術倫理和道德規范,也使法學期刊面臨著前所未有的挑戰。
事實上,自ChatGPT問世以來,國內外期刊或出版社、高校科研機構就已關注這個問題,并作了一定回應。一個極端的例子是,由于來稿量巨增,無法判斷作者究竟是人類還是AI,國外一家科幻小說期刊甚至一度關閉了公開投稿通道。可能科幻小說恰是大模型擅長的領域,但即使是需要謹慎求證的科學研究領域,各期刊也紛紛表態不接受大量借助AI完成的論文,最多允許AI輔助文字潤色、引言和結論部分撰寫,但論文待證命題、實驗設計、實驗數據、核心觀點、主體架構、主要內容等科學研究的關鍵核心部分,不允許AI涉足。同時,許多期刊還要求作者必須向其披露使用AI的情況,包括AI輔助論文寫作的具體方面、所使用AI的型號和版本、提示詞的設計等。許多期刊還強調人類審稿對確保知識生產規范性和可靠性的重要意義,嚴禁審稿人使用AI審稿并撰寫審稿意見。中國法學期刊雖然也意識到回應這個問題的必要性和緊迫性,但據筆者所知,目前,尚未有專門針對AI輔助論文寫作的編輯政策發布。
AI輔助寫作帶給期刊編輯的挑戰
為避免選用刊發實際上為AI“捉刀”的稿件,目前可以采取的一個“笨”辦法是對稿件注釋援引的文獻作全面的、無遺漏的核查。其基本原理在于目前人工智能領域尚未攻克的一項技術難題——AI幻覺。與人類可以對不知道或者不存在的事情說“不”不同,AI尚未建立起知識邊界,能夠“睜眼說瞎話”,可以杜撰并不存在的參考文獻或者案例。比如,如果研究課題屬稅法領域,AI可能會提及知名稅法學者在這個問題上的看法,若是用戶追問觀點的出處,AI可能提供其發表在某法學期刊上的文獻,但事實上這一文獻并不真實存在。通過一一核對稿件注釋,可以在一定程度上發現這種杜撰情況,并以此推測稿件是否存在AI寫作的隱患。當然,如果僅在形式上核對文獻的真實性仍是不夠的。因為AI幻覺并非什么秘密,反而已被科普到人盡皆知,所以投稿者完全可以通過事后核對文獻的真實性來避免使用AI寫作的情況暴露。對編輯來說,不僅要在形式上核對文獻的真實性,而且要了解和把握所引用文獻的內容和思想,從而實質性地判斷文獻能否支持論文的觀點或判斷。這項工作在質和量上的難度可想而知。
當然,從業經驗豐富的編輯,憑借與作者的“長期博弈”,可以通過作者的研究領域、知識積累、論證邏輯、語言風格等方面,對稿件作輔助判斷。但是,這一方法也面臨兩個方面的挑戰:一方面,不熟悉的新作者尤其是學術新秀,編輯可以“憑借”的既往經驗往往不足;另一方面,由于各期刊均實行雙向匿名審稿制,如果審稿人能夠通過文章內容猜測出作者,反而需要盡量回避審稿。一般情況下,理想的審稿人應是陌生人,而作為陌生人,其又無法借助既往學術交流經驗判斷稿件是否可能存在AI寫作的情況。此外,更進一步而言,隨著人工智能的發展及智能設備的不斷普及和技術迭代,日后每位科研人員都可能用人工智能作為科研助手。這使得個性化的人工智能科研助手提供的輔助寫作也可能帶有科研人員寫作的風格和特色。從這個角度看,這一辨識途徑也僅能在當下AI輔助寫作的起步階段發揮暫時性的作用。
在人機協作中始終掌握學術研究的主導權
以傳統的人力來應對大模型賦能下高效產出的海量學術論文,力有不逮是必然的。既然勢不可當,何不樂見其成?但令人憂心的是,大模型賦能下的論文,雖有完整的邏輯、條理的敘事、專業的辭藻,但也難掩其思想的貧瘠和價值的缺位。究其根本,是問題意識之不彰,缺乏對社會法治建設進程中重點痛點難點的洞察力和發掘。從實踐來看,大部分青年學者的選題能力略顯遜色,但在發掘新資料、掌握新技術手段和工具方面較擅長。在這種情況下,AI輔助寫作產生的是一種“馬太效應”,寫作的精巧度和細致度不斷提升,而選題方面的不足則可能被不斷放大。作為一門社會科學,法學的發展和進步絕對不是僅靠邏輯推演就能實現的,而是極大地依賴于研究者對于社會現實情況和需求的體悟與共情。充分回應新時代法治建設進程中的重點難點痛點問題,才能真正構建起中國自主的法學學科體系、學術體系、話語體系。
雖有杞人憂天之嫌,但AI輔助寫作甚至“捉刀”可能會降低學者自身的研究能力,這種損害對于人類而言并非幸事。以AI輔助寫作中應用較為廣泛的文獻綜述來說,雖然在閱讀效率上極具優勢,但其對于學者問題意識的養成可能有破壞性。文獻綜述與提出問題是一個硬幣的兩面,不可分離。研究者正是在大量閱讀文獻的過程中,通過不斷比較與分析不同的文獻,用既有文獻中的問題、觀點及論證不斷驗證自己頭腦中的疑惑與不解是否真實并仍然存在,來不斷提煉、廓清自己的問題意識,最終提出所擬解決的、目前尚未得到解決的真問題。反過來,文獻綜述也不應僅停留于既有研究成果的羅列與簡要呈現,而是應該既“綜”又“述”,以研究者自己的立場、觀點和方法來評判既有研究的得失,在此過程中證明研究者擬討論的問題是既有研究所忽視或尚未解決的真問題。可以說,不“親自”讀文獻,不“親自”做文獻綜述,就不可能提出真正有價值的問題。這也是不少學術期刊反對師生合作論文的深層理由。毋庸諱言,老師提出問題、學生針對性地收集材料加以論證的論文“生產”并不罕見。但是,老師不讀文獻,如何提出問題?學生閱讀文獻,卻可能提不出真問題。這使得有的師生合作論文不僅研究成果質量堪憂,學生也錯失了自己提出問題的寶貴機會,對學術發展和人才培養均不利。
當然,AI輔助科研已極大地推動了人類科學的進步。例如,基于人工智能技術的蛋白質三維結構預測軟件AlphaFold在預測蛋白質結構方面達到了前所未有的精準度。但也應該看到,這些研究課題的意義和重要性是已經得到科學界公認的,不僅如此,實驗設計、實驗數據分析等關鍵環節,仍是由人類來把控的,其科研成果的可靠性、可能存在的偏差或局限,仍需由人類來驗證。這是因為,到目前為止,AI雖然具有超強的符號運算能力,但是對于符號所承載的意義,或無知,或其所知與人類的理解完全不同。雖然AI的發展如火如荼,但AI對于人類所生存的真實世界的感受仍十分有限,或者說即使有所感受也仍與人類完全不同,從而無法站在人類的立場,設身處地提出人類所關切的問題,尤其是人類社會本身所存在的問題。相反,AI發展到大模型時代,人類尚能引以為傲的,正是提出問題的能力。這種能力需要從“枯燥”的“讀萬卷書”中不斷捕捉靈感,從“艱苦”的“行萬里路”中不斷體會、感悟。
大模型除了在文獻綜述方面效率非凡之外,在目錄生成、大綱編寫、要點安排等方面也能提供輔助。大模型驅動的智能代理具有突出的復雜任務處理能力,能像人類一樣,將復雜的任務分解成若干子任務,運用各種工具逐一解決,必要時,還可以將子任務進一步分解為更次級的子任務,層層分解,最終解決復雜任務。這種處理復雜問題的能力,正是論文寫作大綱訓練旨在獲取的能力。證明一個理論命題,需要考慮將這個命題拆分為幾個子命題,每個子命題又可以進一步拆分為若干下位命題,如此層層拆分,直至論據層面,才構成對理論命題的完整論證。能夠把一個基本命題層層拆分直至論據層面,能夠將待解問題的難度逐步降低直至各個擊破,需要以論文大綱訓練為基礎。問題是,如果研究者自身未進行充分的大綱訓練、不具備分解復雜任務的能力,又如何能夠對大模型生成的大綱提出更多詳細的提示或要求,以使之展現研究者自己的研究個性呢?日后若無大模型的輔助,研究者自己會不會在科研道路上寸步難行?這值得思考。
大模型不僅以其“深度學習”能力降低人類思考的“深度”,還以其“長上下文”能力反噬人類的語言能力。當大模型使訴諸文字唾手可得時,人類使用語言進行嚴謹、連貫思考的機會可能無形中被“剝奪”。當人類運用語言的機會“矮化”為與大模型交互的“提示詞”,且各種論文輔助寫作“提示詞”手冊紛至沓來時,不要說中國古代文學中的“煉”字,可能人類的較長文本連貫表達能力也會倒退。因此,為學、治學與知識生產之間不能直接畫等號,不能將人類對新知的探索、渴望與追求簡單等同于以結果為導向的知識生產,因為這不僅僅是目標導向的手段擇取與效率提升問題。但即便僅從知識生產角度觀察,知識生產效率的極大提高,反過來也必然會導致知識確認和校驗成本的急遽上升,以應對良莠不齊、魚龍混雜的知識生產“失范”“失真”現狀。從這個角度,當不可抵擋的人機協作知識生產方式到來時,恰恰也要求研究者始終保守學術研究的初心,多一分定力,少一分焦慮,以擁抱新技術的胸襟,以善用新工具的智慧,在人機協作中始終掌握學術研究的主導權,不斷提高自身的研究能力,推出更優質的研究成果。
主動學習和掌握新技術工具為編輯業務所用
期刊出版作為學術活動產物進入人類知識領域的一個正式通道,可以發揮校驗成果價值、提供發表載體及促進知識傳播的重要作用。期刊編輯應始終牢記自己的使命擔當,承擔好知識生產組織者、知識價值傳遞者、知識成果校驗者的責任,通過選題策劃更有情懷地組織、引導知識創新活動,通過審稿編校更加嚴謹地擇取、校驗知識創新成果,最終貢獻出符合社會需要和價值訴求的創新性研究成果。
法學期刊應進一步提高自身的選題策劃能力,致力于發掘我國法治建設進程中理論與實踐方面的真問題、大問題,將跟蹤學術前沿動態、撰寫選題策劃報告等作為編輯日常工作的重要內容和抓手,不斷提高編輯眼界、擴大編輯視野,用“訓練”大模型的思路打造一支適應大模型時代新知識生產方式的、業務能力過硬的編輯隊伍。
不能將選題策劃這一期刊編輯中最為重要的工作交由AI來執行。雖然可以設計一種輔助審稿的智能系統,其可以通過調取各學術期刊數據庫中作者、選題等的既有引證情況,預判稿件將來的引用率,并以此作為稿件取舍的主要依據,但是大模型主導的選題策劃僅以數據分析為指揮棒,易導致選題的高度集中,而“小眾”“冷門”選題則會被數據分析所淘汰,甚至基礎理論研究會因引用數據表現欠佳,而越來越不受研究者青睞。以數據分析為導向,也不利于青年學者的成長,可能引發出版資源分配失衡。事實上,以引用率為主要指標的現有學術期刊評價體系,已導致以法律史、國際法為代表的“小眾”學科論文“發表難”,也導致青年學者普遍焦慮,在學科建設、人才培養和學術導向方面都產生了一定負面影響。簡而言之,選題策劃具有強烈的學術導向功能,直接關涉學科發展和學術資源分配,不能簡單地交由智能系統執行,而應由人類把握最終的方向和決策權。
期刊應進一步扮演好知識生產秩序構建者的角色,通過制定學術倫理規范、期刊編輯政策等,引導和鼓勵研究者創造更優質的知識成果;在知識篩選與認證環節檢驗知識活動成果,避免價值缺位、思想貧瘠的成果進入知識體系,產生不良社會影響。
一方面,期刊應建立多元化的成果評價體系。人機協作下的知識生產效率顯著提升,期刊應將評價重點放在是否遵循學術規范、是否符合社會實際情況、能否回應社會發展需要、能否取得實質性突破等方面。可以從過程和結果兩個維度,根據學術研究在獨立性、科學性、創新性、知識產權明晰、權責明確等方面的要求,制定科學可行的評價指標體系,為成果篩選設立新標準,促使研究者充分發揮人的價值,追求更高層次的成果創新。實踐中,已有期刊或出版社、高校科研機構等就人機協作知識生產的可行性與限度問題制定了學術規范或編輯出版政策。比如,對大模型在稿件寫作中的應用,多限制在語言潤色、文獻檢索、數據整理分析、思路開拓等輔助環節,同時要求作者保留使用大模型輔助研究的過程性證據并披露使用情況,以備接受創作過程合規性及成果質量審查,通過落實責任制度要求其對成果創作行為負責。未來,期刊可以組織學界開展人機協作中人機界限問題的探討,明確規定AI的參與尺度,劃定人的職責范圍,鼓勵和引導誠信、透明、可解釋的人機協作研究新范式新方法。
另一方面,期刊還應構建起作者、編輯、同行專家、讀者共同參與,貫穿知識生產、審查評議、傳播利用階段,融合自查、審查和監督多種手段的成果核驗機制,從而有效實施對知識生產過程的追蹤,對人機貢獻的明晰,對成果質量的檢驗,確保知識生產過程符合規范標準,知識成果達到創新要求。
同時,期刊在引入AI生成內容專業檢測系統防范風險時,也應對該智能檢測系統本身可能存在的風險保持警醒。AI生成內容專業檢測系統在效率方面與AI輔助寫作同樣具有優勢,但在準確度、透明度、可解釋性等諸方面亦與之一樣存在劣勢。因此,期刊編輯在審稿環節始終不能放棄人類的主導權;在要求知識生產者善用智能工具的同時,要保證人類在知識生產方面的最終主導權。
期刊應進一步提高編輯的交流與共情能力,使編輯成為稿件的第一讀者、用心讀者。從某種意義上說,學術研究乃“獨上高樓”,往往知音難覓,而大模型或許正在成為研究者的學術伙伴。大模型幫助研究者分析既有觀點,或作為對立面質疑研究者提出的新問題、新觀點。這種隨時隨地討論的可能性,或許正是大模型吸引研究者的核心優勢之一。但是,研究者必須始終意識到,大模型表面上有理有據的“言說”,并非基于對言說內容的真正理解,而只是一種基于概率計算的選詞填空游戲。大模型生成的“言說”,雖然無意中可能給人以啟發,但是與真正體悟社會生活、感知人類訴求、擁有同理共情能力的人類仍有天壤之別。在這方面,期刊編輯大有可為。在大模型時代,期刊編輯要不斷有意識地培養、挖掘、釋放并努力提高自己溝通交流和同理共情的能力。
人類或許正站在一個新紀元的伊始,究竟該如何與一種能力全面超越自身的工具共處,這可能在未來很長一段時間里都會是一個問題。在科學技術快速發展的當下,期刊編輯能做的是不斷追蹤技術的最新發展,主動學習和掌握新的技術工具,不斷提升自己的編輯業務能力,以適應更加復雜和高級的編輯工作需要。
點擊進入下方小程序
獲取專屬解決方案~
責任編輯 | 王睿
審核人員 | 張文碩
本文聲明 | 本文章僅限學習交流使用,如遇侵權,我們會及時刪除。本文章不代表北大法律信息網(北大法寶)和北京北大英華科技有限公司的法律意見或對相關法規/案件/事件等的解讀。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.