![]()
機器之心編輯部
全球研究者注意:論文預印本上傳平臺 arXiv 又出新規了!
今天凌晨,俄勒岡州立大學杰出教授(榮休)、arXiv 計算機科學分區 CoRR 的機器學習板塊首席版主 Thomas G. Dietterich 宣布:根據我們的行為準則,在論文上署名即表示每位作者對其全部內容承擔完全責任,無論這些內容是如何生成的
![]()
如果生成式 AI 工具產生了不當言論、抄襲內容、偏見內容、錯誤、失誤、不實引用或誤導性內容,并且這些輸出用在了論文中,相關責任均由其作者承擔。近期已經明確了針對此類行為的處罰措施。
如果某篇投稿中存在無可辯駁的證據表明,作者并未核查大語言模型(LLM)生成的結果,即意味著我們無法信任該論文中的任何內容。
這里,無可辯駁的證據示例包括:虛構的參考文獻、來自大語言模型的元注釋(如「這是 200 字的摘要,您需要我做任何修改嗎?」「此表中的數據為示意性質,請填入實驗的實際數據」等)。
處罰結果為:一年內禁止向 arXiv 投稿。此后再次向 arXiv 投稿時,論文必須先被聲譽良好的同行評審平臺接收
![]()
從評論區的反饋來看,支持者有很多,「非常好,請堅決執行。」
![]()
質疑者同樣存在,有人認為「這項政策恐怕會根據機構特權和個人的知名度選擇性執行,并最終會淪為一種工具,用來讓沒有背景關系的人閉嘴,而不是促進更良性的科學討論。」
對此,Dietterich 給出了解釋,「我承認我們的處理流程中可能會存在偏見。我們會使用一套標準的大語言模型檢測算法來識別需要審查的論文。審核人員也可能帶有偏見。我們非常樂意與研究者合作,共同研究我們工作中的偏見與成效。
![]()
有人覺得「新規在短期內是有用的,但隨著 AI 的進步,一年之后這些核查手段和標準是否還能奏效。既然如此,禁投一年的處罰又有什么意義呢?為什么不能直接打上 AI 生成的標簽,到此為止就好?」
![]()
另外,還有人提出了一些其他問題,比如對每個作者的連坐處罰是否合理,「你如何判斷作者是否同意署名?如果某人 X 寫了一篇 AI 生成的垃圾論文,在我不知情的情況下把我的名字加上去,然后上傳到 arXiv,我也會被連帶禁投嗎?反過來,如果我和某人 X 一起寫了 AI 垃圾論文,他投稿到 arXiv 后被禁了,我能不能假裝對這個項目毫不知情來逃避處罰?」
![]()
對于上述情況,有人提議,「看起來真正的問題在于有人在自己不知情的情況下被強行署了名。解決方案似乎是:除非你接受了對這篇論文的邀請,而且你在接受前可以先行審閱,否則你的名字就不會出現在作者列表里。」
![]()
此次,arXiv 的新規將「使用 AI 輔助寫作」的責任邊界劃分得更加清楚,完全由作者承擔。
其實,一些 AI 頂會早已出臺了針對論文作者與審稿人「濫用 AI」的規定:
- ICLR 2026 懲罰不主動披露濫用 AI 的論文作者,對違規使用 AI 審稿的評審人,他們自己的論文也可能被直接拒稿;
- ICML 2026 嚴禁將 LLM 列為作者,嚴禁任何形式的隱藏提示詞注入;
- CVPR 2025 明令在任何審稿階段都不得使用 LLM 撰寫或翻譯評審意見。若審稿人被認定高度不負責任(如提交 AI 生成的意見),其自己投稿的論文也可能被直接拒絕。
- EMNLP 2025 要求被接收的論文必須附帶一份「負責任 NLP 檢查清單」。
這些新規標志著,學術界對生成式 AI 的治理已經從討論進入到了「設立紅線、明確懲罰」的實操階段。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.