AI渗入同行评审体系,引发学术界热议
AI导读:
加拿大蒙特利尔大学生态学家发现AI代笔评审报告,引发对同行评审制度的担忧。AI系统正迅速渗透同行评审体系,多家出版商测试AI审稿系统。尽管一些资助机构和出版商明令禁止,但离线AI工具降低泄密风险。知名期刊对生成式AI工具持谨慎观望态度,科研团队开发辅助人类评审的智能助手。然而,关于AI评审的担忧仍然存在,学术界呼吁制定透明度标准。
今年2月,加拿大蒙特利尔大学生态学家蒂莫西·波伊索在审阅自己论文的评审意见时,意外发现其中一份评审报告可能由AI代笔。这引发了他对同行评审制度的担忧,并在博客中表达了愤怒:我递交论文参与评审,期待的是同行的思想碰撞。若这一前提不再,同行评审制度将面临巨大挑战。
据英国《自然》杂志网站3月27日报道,AI系统正迅速渗透同行评审体系。多家出版商正在测试各种AI审稿系统,用于标记文本谬误、数据漏洞,以及润色文字等。一些平台甚至能一键生成完整的AI评审报告。这引发了科学家们的热议,一些人认为同行评审自动化不可避免,而另一些人则担忧AI最终会主导同行评审过程,弱化甚至取代人类审稿人的角色。
随着ChatGPT等生成式AI工具的兴起,人工智能已经渗入评审生态。学术出版界早已将AI技术引入同行评审环节,用于数据校验、研究结论提炼等辅助工作。但现在,具备类人写作能力的生成式AI工具正在学术界掀起风浪。
美国威利出版集团的一项调研显示,约19%的受访者承认尝试过使用AI工具提高评审效率。更令人关注的是,对2023年至2024年AI领域会议论文的评审报告分析发现,7%至17%的评审报告存在由AI工具“深度润色”的迹象。
尽管一些资助机构和出版商明令禁止在论文或基金评审中使用AI工具,但离线AI工具的出现降低了泄密风险。然而,知名期刊对生成式AI工具仍持谨慎观望态度。调查显示,59%的顶级医学期刊完全禁止评审环节使用AI技术。
鉴于主流学术期刊对AI自主评审的审慎态度,科研团队正在开发辅助人类评审的生成式AI工具。例如,斯坦福大学打造的“反馈代理”审稿系统能自动识别语义模糊等问题,并提供相关建议。荷兰阿姆斯特丹WBS公司开发的Eliza工具则能跨语言处理评审内容,并推荐参考文献。
此外,还有一些工具如“审议助手”能识别违反匿名规则的论文,“Veracity系统”能验证引用文献的真实性,以及Alchemist review能提炼论文核心发现并评估研究方法的创新性。这些智能助手正在成为同行评审的重要辅助工具。
然而,关于AI评审的担忧仍然存在。一些人认为AI不具备评审所需的批判性思维,提出的内容大多是“泛泛而谈”。学术传播顾问克里斯·莱昂纳德预测,尽管目前的AI系统无法完成人类评审员的全部工作,但随着技术不断精进,AI生成的评审报告的质量将显著优于大多数人类评审。但他也强调,AI评审必须配备“思想制动系统”,在必要的情况下启动二次评审。
英国牛津大学学术伦理研究中心主任艾玛·威尔逊警告称,当算法开始评判人类智慧时,人们失去的不仅是审稿人的专业判断,更是学术共同体最珍贵的批判性思维。因此,如果科学界开始接受AI审查,就需要制定强有力的透明度标准,公开AI审查的每个细节和使用的提示词等。
(文章来源:科技日报)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。