科技部发布《负责任研究行为规范指引(2023)》,对人工智能的使用做出了明确规定

为进一步引导科研人员和各类科研机构、高等学校、医疗卫生机构等规范开展负责任的科学研究,2023年12月21日,科技部监督司组织编写了《负责任研究行为规范指引(2023)》,供有关部门、地方和单位在推进科技工作中参考使用。

《指引》覆盖的范围包括:研究选题与实施、数据管理、文献引用、成果署名、成果发表、同行评议、伦理审查、学术交流与合作、知识产权保护、培训与指导、监督管理等十一个部分。全文可以直接通过附件下载。

在生成式人工智能方面,《指引》也给出了明确规定,具体如下:

一、研究选题与实施

2. 研究项目的申报材料应真实、准确、客观。不得使用相同或相似研究内容重复申报,未经同意不得将他人列为研究团队成员。不得抄袭、买卖、代写申报材料,不得使用生成式人工智能直接生成申报材料

7. 应严格遵守相关安全保密、经费使用、资源和数据共享、知识产权归属等规定。依规合理使用生成式人工智能参与研究实施

二、数据管理

13. 应遵循相关法律法规及学术规范,依规合理使用生成式人工智能处理文字、数据或学术图像,防范伪造、篡改数据等风险。

三、文献引用

4. 使用生成式人工智能生成的内容,特别是涉及事实和观点等关键内容的,应明确标注并说明其生成过程,确保真实准确和尊重他人知识产权。对其他作者已标注为人工智能生成内容的,一般不应作为原始文献引用,确需引用的应加以说明

7. 不应在参考文献中列入未参考过或与研究内容无关的文献,包括不恰当地自我引用、与他人约定相互引用,或根据审稿人、编辑要求引用不相关文献等。不得直接使用未经核实的由生成式人工智能生成的参考文献

四、成果署名

7. 生成式人工智能不得列为成果共同完成人。应在研究方法或附录等相关位置披露使用生成式人工智能的主要方式和细节

五、成果发表

3. 应要求作者披露是否使用生成式人工智能,说明具体的软件名称、版本和使用时间,并对涉及事实和观点引证的辅助生成内容作出具体标注。

6. 合理选择审稿人,督促审稿人认真、公正评审,并对其遵守科研诚信要求的情况进行相应监督与评估。提醒审稿人在审稿过程中使用生成式人工智能应依规谨慎。不得对审稿人的合规评审施加不当影响,或无理由地否定、歪曲审稿人的审稿意见。

六、同行评议

7. 在评议活动中使用生成式人工智能的,应事先征得评议活动组织者同意,操作中应防止泄漏评议内容,如发生信息泄漏应及时采取必要补救措施。