当前,人工智能正以前所未有的速度融入科学研究的各个环节。
根据国际调查数据,全球科研人员用于研究和论文写作的AI工具使用率已达62%,过去一年增幅达22%。
从数据处理的辅助工具演变为具备一定自主性的"研究参与者",AI在科研中的角色定位问题日益凸显,引发了学术界的广泛讨论。
AI署名权问题的争议焦点在于对其创造性贡献的不同认识。
支持AI署名的学者指出,当代AI系统已能在研究设计、数据解读、实验设计等核心环节发挥重要作用,甚至能够提出创新性研究假设,发现人类未曾注意到的知识关联。
基于这一认识,斯坦福大学去年主导的"Agents4Science 2025"学术会议首次明确提出,论文主要作者与审稿人可由AI担任,以此鼓励AI在科研中的能力拓展。
然而,反对AI署名的观点同样具有说服力。
这一立场强调,尽管AI在科研中的应用日益深入,但其本质仍然是基于数据、算法和人类指令的工具系统。
AI缺乏自我意识和创造性思维,更不具备人类的道德意识和法律人格。
当科研成果出现抄袭、造假、数据篡改等学术不端行为时,AI无法承担相应的学术和法律责任。
基于这一认识,《自然》《科学》等学术顶级期刊已明令禁止AI署名。
这一决策的伦理基础主要体现在两个方面。
从责任伦理角度看,科研成果的作者必须能够对研究内容承担学术和法律责任,而AI不具备这种主体资格。
从信念伦理角度看,作者身份承载着人类独有的原创性与学术诚信承诺,AI无法理解并坚守学术规范。
虽然禁止AI署名,但学术界并未简单地拒绝AI在科研中的应用。
相反,越来越多的期刊开始要求作者明确披露AI的使用情况。
这包括说明使用了哪些AI工具、在研究的哪些环节应用了AI、AI生成内容在全文中的占比,以及作者对AI产出进行的修正与补充。
《自然》《科学》等权威期刊甚至强制要求在论文的"致谢"或"研究方法"等适当位置披露AI的实际贡献。
这一规范的出台背景是学术界对AI滥用的普遍担忧。
近年来,AI篡改研究数据、伪造实验图片、代替自主设计等不端行为频频出现。
不久前,国外高校医学生通过AI修改病人CT片以通过考试的事件更是敲响了警钟。
为此,众多高校已采取应对措施,包括设定学术论文"AI率"上限为20%-40%,禁止使用AI生成或改动实验数据和田野调查原始数据,同时强调作者须对使用AI生成的内容承担最终责任。
这些规范措施的实施,标志着学术界正在建立一套更加透明、可验证的AI应用管理体系。
未来,研究人员在投稿时可能需要填写《AI应用与贡献说明》等专门文件,详细记录AI在研究过程中的具体应用情况。
这种做法既保护了学术诚信,也为AI的合理应用留出了空间。
人工智能正在改变科研的生产方式,但并未改变学术共同体对真实性与责任的基本要求。
是否署名的争论,本质上是对责任边界、诚信底线与治理方式的再确认。
坚持“人对研究负责、工具可被记录”,以透明披露与可核查机制稳住学术信任的基石,才能让技术进步真正服务于知识增量与公共利益。