AI代筆痕跡遍佈學術圈,數百篇論文被抓現行

用 AI 輔助閱讀文獻、潤色表達乃止論文撰寫,可能已經成為許多人研究工作中的一部分了,方便固然方便,但 AI 的大量使用也引發了許多亂象。最近 Nature專欄的一篇報道就揭露出,數百篇發表在權威學術期刊上的論文被發現含有明顯的 AI 生成痕跡,而作者卻未按規定披露 AI 的使用。更令人擔憂的是,這些未披露 AI 使用的論文不僅出現在小型期刊,還出現在由 ElsevierSpringer NatureIEEE等頂級學術出版商發行的期刊中。
作為一個 AI 語言模型
問題最先透過一些散落在論文文字中的、極具辨識度的 AI 痕跡暴露出來。一些科學誠信的監督者們注意到,一些學術論文中竟出現了諸如regenerate response(重新生成回應)這樣的短語,幾乎是作者在複製貼上 AI 生成內容時手滑的直接證據。
類似的露餡短語還有不少。例如,as an AI language model(作為一個 AI 語言模型)、Certainly, here are(當然,這裡是……)以及As of my last knowledge update(截至我最後的知識更新……)等。這些通常是 AI 在回答問題時自帶的禮貌性開場白、組織性提示語,或是對其自身資訊侷限性的免責宣告。這種明顯的 AI 用語,居然大量堂而皇之地出現在了正式的學術論文中。
圖丨截止2024 年 月 30 日,查詢含有 AI 撰寫內容論文的搜尋查詢初步總結果數(來源:Learned Publishing
肯塔基大學路易斯維爾分校的研究素養與傳播講師 Alex Glynn 是系統追蹤這一現象的學者之一。他建立了一個名為Academ-AI的線上資料庫,專門收錄那些包含明顯 AI 生成痕跡但未宣告的學術文獻案例。截至目前,該資料庫已記錄了超過 700 篇此類論文。Glynn 在一項對資料庫中前 500 個案例的初步分析中發現,這個問題的影響範圍遠超預期。資料顯示,這些存在問題的論文並非僅僅出現在影響力較低或邊緣性的出版物中,其中高達 13% 的論文發表在由 ElsevierSpringer Nature 和 MDPI等國際大型、知名學術出版商出版的期刊上。
圖丨按出版商分類的文章/論文數量(來源:arXiv
波蘭卡托維茲經濟大學的研究員 Artur Strzelecki 對一些知名期刊進行了研究,也同樣發現了這一現象。他在學術期刊 Learned Publishing上發表的研究,識別了 89 篇發表在被 Web of Science  Scopus 資料庫收錄、擁有影響因子或 CiteScore 指標的期刊上的論文,這些論文均帶有明確的 ChatGPT 生成內容的印記。令人震驚的是,其中 64 篇論文(佔比超過 70%)所在的期刊在其各自學科領域內位於 Scopus 資料庫排名的前 25%(即 Q1 區),更有 28 篇論文所在的期刊排名在前 10%(即 90th percentile 以上)。例如,影響因子極高的頂級期刊如Trends in Analytical Chemistry Trends in Food Science & Technology 也未能倖免,其發表的文章中也出現了此類 AI 痕跡。
這些研究還揭示了問題的學科分佈。Strzelecki 的分析顯示,在識別出的 89 篇論文中,醫學(19 篇)、計算機科學(17 篇)和工程學(16 篇)是重災區,但環境科學(10 篇)、社會學、教育學、管理學(各 篇)以及經濟學(篇)等領域也均有涉及。這表明 AI 的未披露使用已廣泛滲透到多個學科領域。
圖丨不同學科的分佈情況(來源:Learned Publishing
更令人擔憂的是,這些可能包含未經驗證內容的論文已經開始進入正常的科學交流迴圈中。斯特澤萊茨基的研究指出,截至 2024 年 月 30 日,他所分析的 89 篇論文中,已有 60 篇被後續的其他學術文獻引用,總引用次數達到 528 次。這意味著,潛在的、由 AI 引入的錯誤或不準確資訊,可能正在透過引用鏈被放大和傳播,對科學知識的積累造成潛在汙染。
出版界的應對與尷尬
對於那些已經被發現 AI 未披露使用的論文,基本上都已經被做了撤稿處理。例如,知名學術監督網站撤稿觀察Retraction Watch)最近就公佈了多起相關案例。例如,一位谷歌工程師的預印本手稿因包含 AI 生成的奇怪短語(如squared blunderinfo picture)而被撤回;另一篇完全由 ChatGPT 撰寫的關於千足蟲的預印本,因包含虛假參考文獻,在短暫上線後即被撤下。
圖丨上述谷歌工程師的論文中有兩個短語被認定為人工智慧生成(來源:Retraction Watch
但除了公開的撤稿,還有一種更為隱蔽的處理方式——隱形修正stealth corrections)也引起了學界警惕。Glynn 與法國圖盧茲大學的計算機科學家 Guillaume Cabanac 等人的研究發現,一些出版商在發現已發表論文中存在 AI指紋短語後,並未釋出正式的勘誤或撤稿宣告,而是悄無聲息地在後臺修改了線上版本,將這些暴露性的短語刪除。
例如,Toxicology 此前就有一篇論文中的regenerate response短語在沒有任何公開說明的情況下消失了。Glynn 和 Cabanac 的研究追蹤到了超過 100 篇經歷了此類沉默的發表後修改的文章,其中部分修改就與未披露的 AI 使用有關。這種做法威脅到科學誠信,Cabanac 表示,透明的記錄儲存對確保已發表內容的可信度至關重要。
在那些確實釋出了正式更正的案例中,結果同樣令人失望。在 11 篇正式修正的論文中,僅有 篇最終符合相關期刊的 AI 披露政策。大多數情況下,AI 生成的文字被移除或用括號標記,但並未按要求在正文中新增 AI 使用宣告。
面對 AI 技術帶來的衝擊,如今全球主要的學術出版商和期刊組織大都已經制定或更新了關於在學術出版中使用 AI 的政策指南,然而,就上述這些處理情況來看,這些政策似乎沒有得到有效的實施。
就目前而言,學術界對 AI 使用的已經形成兩大基本共識:
其一,人工智慧不能被列為作者。這是幾乎所有主流機構和期刊(包括國際醫學期刊編輯委員會 ICMJE、出版倫理委員會 COPENatureScienceCellThe LancetJAMA等)的共同立場。理由很明確:AI 無法承擔作者所必須承擔的責任,即對研究工作的原創性、準確性和完整性負責。
其二,使用人工智慧輔助必須進行披露。大多數出版商要求,如果作者在研究或寫作過程中使用了 AI 工具(尤其是用於生成文字、影像或程式碼),必須在稿件的特定部分(如方法、致謝、或投稿信中)明確宣告,說明使用了何種工具以及具體用途。
然而,在具體執行層面,各家政策存在差異。Nature 雜誌要求,若使用大型語言模型,必須在方法部分詳細說明,並禁止使用 AI 生成的影像(僅有極少數例外)。Science雜誌的政策則允許在論文的方法章節說明後,正當地採用 AI 製作插圖、撰寫論文內容,但 AI 本身不能作為作者或合著者。Cell雜誌也禁止將 AI 列為作者,要求作者在使用 AI 輔助技術時需在投稿信和宣告部分註明,並對作品的準確性和原創性負全責,未獲編輯明確許可不得使用 AI 生成影像。
圖丨主要期刊的 AI 使用政策(來源:網際網路整理)
與此同時,一些出版商的政策也在適應 AI 工具日益普及的現實。例如,英國物理學會出版社(IOP Publishing)最初要求作者宣告 AI 使用,但後續修改了政策,不再強制要求披露,轉而更側重於透過自動化和人工檢查來確保內容的準確性和穩健性(但其政策依然禁止使用 AI建立、更改或操縱研究資料或結果)。Springer Nature也指出,用於改善可讀性、風格、語法或拼寫錯誤的AI 輔助文稿編輯無需特別宣告。IEEE則建議在致謝部分披露 AI 生成的所有內容(文字、圖表、影像、程式碼),但對於常見的編輯和語法增強用途,披露則為建議而非強制。
儘管政策框架日漸清晰,但大量未披露 AI 使用案例的曝光恰恰說明,現有政策的執行和同行評審流程在有效識別和管理 AI 生成內容方面仍面臨巨大挑戰。正如 Glynn 所指出的,Radiology Case Reports上一篇論文中出現I am an AI language model這樣直白到不能再直白的句子,竟然能一路綠燈透過作者、編輯、審稿人、排版人員等所有環節的審查,這本身就暴露了現有體系的脆弱性。
參考資料:
1.https://www.nature.com/articles/d41586-025-01180-2#ref-CR3
2.https://arxiv.org/abs/2411.15218
3.https://onlinelibrary.wiley.com/doi/10.1002/leap.1650
4.https://retractionwatch.com/2025/04/24/google-ai-engineer-withdraws-arxiv-preprint-tortured-phrases-genai/
排版:溪樹


相關文章