科技部新规划定科研与教学“智能工具”红线:严禁编造材料成果、代审代写

随着生成式人工智能高校教学、科研写作和同行评审中的广泛应用,与之涉及的的学术诚信、评审质量和信息安全问题逐渐显现;近期,《中国药房》编辑部发布声明,指出部分审稿意见高度疑似由AI工具生成,呼吁审稿专家秉持严谨公正的态度,避免“代审”等可能引发学术不端或泄密的行为。此外,围绕论文写作、文献引用和课程内容的争议频发,促使相关管理规范亟待明确。 原因: 首先,技术门槛降低带来“效率诱惑”。生成式工具在资料整理、语言优化和结构搭建上效率显著,部分人员“赶进度、保产出”的压力下,模糊了辅助与替代的界限。其次,规则制定和能力建设相对滞后。尽管一些单位已出台规范,但对披露要求、使用范围、验证责任和违规认定等关键条款仍不够细化,执行层面的核查流程和培训支持不足。此外,外部环境变化加剧风险。跨机构合作和云端工具的普及,增加了涉密数据或未授权数据被输入工具的风险,同时也可能造成学术评审材料外泄。 影响: 第一,科研可信度受到挑战。近年来的案例显示,部分论文因引用虚构文献等问题导致研究结论可追溯性受损,甚至引发撤稿和问责,影响机构和学科声誉。第二,同行评审的“质量闸门”可能被削弱。若评审意见由工具批量生成,容易出现模板化、泛泛而谈或事实错误,不利于甄别优质成果,损害学术公信力。第三,教育公平性和育人目标可能受到影响。课程内容若过度依赖生成式工具,可能导致教学同质化、学生思辨能力弱化,降低教学质量的实际效果。 对策: 制度层面,科技部2月11日发布的《科学技术活动违规行为调查处理规定》明确将“滥用人工智能编造科研资料或成果”列为违规行为,为科研诚信治理提供了依据。高校和科研机构应据此细化规则,围绕“使用范围、披露要求、验证责任和违规认定”建立全流程制度。期刊和学术共同体需同步升级审稿规范,加强利益冲突和工具使用披露,完善匿名评审保密条款,建立抽检复核机制,警惕模板化评语或文献链条断裂等风险信号。 实践层面,国内高校正加快探索。以清华大学发布的人工智能教育应用指导原则为例,强调“主体责任、合规诚信、数据安全、审慎思辨、公平包容”等核心要求,明确使用情况和生成内容需依规披露,禁止使用敏感或涉密数据训练模型,并提醒防范“幻觉”风险和多源验证的重要性。相关经验表明,规范不仅要有制度,还需配套工具:例如建立校内合规模型和安全算力环境,提供可追溯的使用记录;在论文和项目管理系统中增加披露选项;开展师生核查培训,提升对虚构文献、错误推理和数据污染的识别能力。 前景: 全球范围内,自2023年以来,多所高校已发布生成式人工智能使用指南,逐步明确学习、科研和写作的边界。调查显示,多数师生所在学校已出台相关规定,但对实际效果仍持观望态度,反映出治理正从“有无规范”转向“是否有效”。未来,高校治理可能呈现三上趋势:一是从原则性倡导转向可量化、可追责的流程管理;二是将技术治理与科研评价、人才培养改革结合,减少对“数量指标”的依赖;三是在开放创新与安全合规之间建立分级分类使用体系,推动形成可复制的行业标准。

技术革新为学术传统带来机遇的同时,也提出了新的伦理挑战。在人工智能时代守护学术诚信,既需要严格的制度约束,也离不开研究者的自律。这场关于技术进步与人文坚守的对话,将深刻影响未来教育的发展方向。