警政時報

arXiv 嚴打 AI 論文造假 違規者恐遭禁投稿一年

我要分享
圖/本報資料庫

商傳媒|林昭衡/綜合外電報導

學術預印本平台 arXiv 今日宣布,將針對研究論文中未經查證的「人工智慧(AI)生成內容」祭出嚴格處罰,違規者最高恐面臨一年停權,不得向該平台投稿。這項新政策旨在遏止學術界日益氾濫的「AI糟粕」,此類內容雖結構嚴謹,卻在科學上缺乏可信度。

這項決定反映學術研究社群對 AI 生成內容擴散的普遍擔憂。專家指出,大型語言模型(LLMs)產出的虛構引用文獻、通用文本區塊,以及誤導性技術主張,皆未經適當驗證。

根據 arXiv 發布的最新政策,平台將收緊內容審核標準,確保投稿作者對其提交的所有內容負起完全責任,即使有 AI 工具輔助亦不例外。雖然 AI 工具仍允許使用,但 arXiv 強調,人類作者在提交前必須驗證所有內容,包括 AI 生成或輔助生成的參考文獻、方程式和詮釋。

這項政策更新,正值各預印本伺服器上 AI 輔助投稿數量顯著增加之際。審核人員回報,發現越來越多論文包含憑空捏造的引用、籠統的文字描述,以及未經查證的誤導性技術主張。問題不僅限於寫作品質,更延伸至科學溝通本身的誠信問題。許多案例中,AI 系統會生成看似合理但實為錯誤的參考資料,甚至憑空創造出不存在的支持性研究。

依據 arXiv 的執行框架,若有明確證據顯示作者未能妥善驗證 AI 生成內容,包括虛構的引用、誤導性技術解釋,或手稿中隱藏的提示和指令,將可能處以一年停權。平台強調,執法將著重於明顯的過失案例。然而,重複違規或系統性濫用生成式系統的情形,則可能導致額外限制,例如未來投稿前須先經過同儕審查發表。

arXiv 此舉被視為更廣泛監管轉變的一部分,責任將日益落在人類研究人員而非自動化系統上。其目標是防止在 AI 工具日漸強大且普及的時代,科學文獻的信任度遭到侵蝕。專家警告,若過度依賴生成式系統而不加檢視,恐將損害科學的公信力。問題不僅是語法或結構,更關乎所產出資訊的根本準確性。大型語言模型常產出自信卻錯誤的內容,這在強調精確性的科學領域尤為危險。

這項新政策可能會對依賴預印本平台快速分享研究成果並提高知名度的年輕研究人員產生顯著影響。arXiv 長期以來一直是機器學習和理論物理等快速發展領域中,快速科學交流的重要發布管道。雖然政策支持者認為,更嚴格的規定對於保護科學誠信是必要的,但批評者則擔憂可能導致過度干預和執法不一致。在多位作者和工具共同參與的合作研究專案中,界定責任歸屬可能也會變得更加複雜。

學術出版界圍繞負責任人工智慧的討論,反映出日益達成的共識,即隨著 AI 更深入地融入研究流程,透明度和問責制必須保持核心地位。arXiv 的最新政策預示著科學界開始劃定更明確的界線,優先考慮在 AI 快速發展時代下的信任、驗證與人為監督。

我要分享

按個讚!警政時報粉絲團!讓您立馬觀看獨家影片!也可向我們投訴爆料哦    點這裡