
人工智慧快速普及,正對學術出版體系帶來前所未有壓力,多個預印本服務平台與國際研討會指出,所謂「AI灌水論文」(AI slop)大量湧入,正讓電腦科學研究面臨品質與審查危機,學術界正面臨一場結構性衝擊。如何在提升效率與維持研究品質之間取得平衡,已成全球科研體系迫切課題。
國際權威期刊《自然》(Nature)近日報導,德國雷根斯堡大學人機互動研究員維默(Raphael Wimmer)近日以OpenAI新推出的AI工具Prism進行測試,只花54秒就生成一篇未實際進行實驗的完整研究草稿,他在社群平台直言:「寫論文從未如此容易,學術出版渠道被塞爆也沒這麼容易過。」
大型語言模型(LLM)如今可協助提出假設、撰寫程式與論文初稿,甚至由AI代理自動化部分研究流程。雖然提升效率,但也使大量低品質或虛構研究更易產生,被學界稱為「AI灌水論文」。
這股浪潮已讓電腦科學領域逼近負荷極限。2026年國際機器學習會議投稿數突破2.4萬篇,較2025年暴增逾一倍。研究顯示,LLM可使研究人員生產力提升最高達89%,投稿量隨之爆炸性成長,遠超現行審查制度可承受範圍。
南韓韓國科學技術院學者李瑟基(音譯,Seulki Lee)指出,現行審稿機制難以應付這麼龐大的投稿量,嚴謹評估逐漸變得不可行,更讓人擔心的是,不少作者未充分驗證AI生成內容,有些論文甚至完全由AI撰寫,或包含AI「幻覺」捏造的資料與引用。
自ChatGPT於2022年底問世後,預印本平台arXiv每月投稿量增加逾50%,遭退稿數更暴增至每月2400篇以上,這也代品質很差的內容正快速湧入學術體系。
arXiv共同創辦人、康乃爾大學物理學家金斯帕格(Paul Ginsparg)指出,AI生成論文難以用傳統方式辨識,即使閱讀摘要或快速瀏覽全文也難分辨真偽,已對整個學術審查系統構成「生存威脅」。
為因應危機,各大AI學術會議紛紛採取措施,部分會議擴大審稿人數量,或要求投稿者必須同時擔任審稿人。國際學習表徵會議已實施「投稿即審稿」制度;神經資訊處理系統會議則坦言將不得不動用更多資歷較淺的審稿人。
主辦單位也開始推出防堵新規,ICML已要求作者提交所有相關投稿副本,防止重複或變形投稿,違規者可能遭全面退件,部分會議亦提供免報名費等誘因,鼓勵高品質審查。
編輯 / 羅志光
【巴西華人資訊網】

