资讯
您当前的位置:首页 > 学术服务 > 颗粒写作 > 资讯
AI时代下的学术新准则:学术出版如何规范使用AI
发布时间:2025-01-07
【字体:      

随着生成式人工智能(GAI)工具(如ChatGPT、Copilot、Gemini、豆包等)的快速崛起,学术研究迎来了效率提升的新助力。然而,这些工具的“双刃剑”特性也引发了关于学术伦理的深刻讨论。为保障学术诚信、维护科研纯净,科技部、中信所及各大出版机构纷纷制定或更新相关政策,为科研人员合理使用AI工具提供指引。


(一)技术便利与伦理挑战

GAI功能强大,可助力学术研究多个环节:从选题、组织思路到论文润色、数据分析及图表制作等。然而,GAI生成的内容依赖大数据与大语言模型,其准确性和真实性难以完全保障。一些研究人员、学生直接使用AI生成的信息作为研究成果或论文内容,甚至欺骗性地伪造数据,这不仅违背了学术研究的初衷,还可能对相关领域的科学进展造成严重误导。

2024年4月,国内某医疗团队在《Medicine》上发表研究论文,声称碱性水可以减轻慢性痛风性关节炎患者的疼痛并缓解其症状。然而,仅仅三个月后,这篇论文便因多项严重问题被撤稿 。

打假学者指出,该论文存在多个疑似由AI生成或伪造的重大漏洞。例如,论文引言部分疑似全部由AI生成,且一张示意图中的骨头数量错误,图例标注毫无意义,如“chlsinkestead atlvs no active greedis”、“Aliainine jerve sreiter”等。此外,文章的部分参考文献无法在PubMed或Google Scholar中找到,作者的电子邮箱也并非机构邮箱。

来源于:Assessment of the efficacy of alkaline water in conjunction with conventional medication for the treatment of chronic gouty arthritis: A randomized controlled study [RETRACTED]


这一事件向学界敲响了警钟:学术研究的核心在于数据的真实性与思想的创新性,而非对技术工具的盲目依赖。滥用AI不仅严重损害学术诚信,还可能让研究成果丧失科学依据和公信力。


(二)明确红线:AI的合理和规范使用

为应对AI在学术出版中可能带来的风险,明确AI使用边界、提出严格的AI使用规范迫在眉睫。

2023 年 12 月 21 日,科技部监督司发布《负责任研究行为规范指引(2023)》(以下简称《指引》),就AI使用中的关键问题明确了“红线”。《指引》从研究实施、数据管理、成果署名与发表、文献引用等方面给出了具体指引,包括不得使用GAI直接生成申报材料,不得将GAI列为成果共同完成人,以及不得直接使用未经核实的由GAI生成的参考文献等,清晰划定了AI使用边界。

到2024年9月26日,中国科学技术信息研究所携手Elsevier、Springer Nature、Wiley等多家出版机构发布了《学术出版中的AIGC使用边界指南2.0》(以下简称《指南2.0》)。该指南以明确透明度和问责制为核心原则,倡导在学术研究及出版发行全过程中,研究人员、作者、同行评议专家和读者都应该了解并明确披露GAI的使用情况。具体包括数据透明(如底层数据集、数据来源和处理方式的披露)、知识产权和版权材料的使用情况等。同时,《指南2.0》提出了问责机制,呼吁研究人员、机构、资助方、政策制定者和出版商共同履行监督责任,建立清晰的问责标准。

《指南2.0》建议的AI使用情况披露声明模板

GAI尽管为学术造假提供了一定便利,但它的使用边界正逐步清晰。在法规约束与实践共识的双重推动下,学术界和出版界正加速走向规范化与透明化。国内外越来越多的出版机构也已经达成共识,开始正视并规范 AI 的使用,以维护学术诚信并保障科学研究的质量与可信度。


(三)各大出版机构的AI使用政策

编辑部参考Elsevier、BMJ、Springer Nature、Taylor & Francis、Wiley等出版机构有关学术期刊出版过程中的AI使用政策,并汇总如下:

1. 作者:合理使用AI的原则与限制

(1)语言优化而非内容生成

允许作者在写作过程中使用AI提升语言、风格与格式等可读性改进,但内容的原创性与准确性须由作者全权负责。

(2)披露与声明

要求作者在稿件中公开使用AI的情况,并附上相关声明,同时禁止将AI工具列为论文作者或共同作者。

(3)禁止内容生成与修改

AI工具不得用于数据、图表、音频、视频、动画、代码和公式等关键内容的生成或篡改。实验生成类图像必须由真实开展的实验研究获得。除出版机构、期刊政策允许的情况外,图片摘要、封面等艺术作品同样禁止使用AI创作。

(4)有限调整图表的权限

AI可用于辅助优化图表样式,如调整亮度、对比度、色彩平衡或字体大小等,或添加标注、图例等,但不得模糊或改变图表中的原始信息,如增强、移动、删除或引入特定特征等是被严格禁止的。

此外,Elsevier表示,如果AI工具作为研究设计或方法的一部分,以创建图像或修改图像内容,这是可以接受的。但作者必须详述具体的操作过程,包括AI工具或模型的名称、版本号及制造商信息,以确保透明度和可追溯性。甚至有时还需要提供调整前后的原始图像及生成后的图像,以供编辑审查与评估。

2. 审稿人:尊重隐私与强化责任

(1)保密性优先

为避免泄密、引发版权纠纷,大部分出版机构禁止审稿人将作者手稿或其任何部分上传至AI。作者未经期刊和审稿人允许也不得将同行评审报告上传至AI。

(2)不可替代的批判性思维

同行评审是科学生态的核心,因此许多出版机构不建议审稿人使用AI来协助科学评审。因为同行评审所需的批判性思维和原创性评估超出了该技术的范围,并且该技术有可能产生虚假的、不完整的或有偏见的信息。

(3)披露AI使用

在出版机构、期刊政策允许的前提下,审稿人可以使用AI优化评审报告语言,但应在提交评审报告时做出明确声明。


3. 期刊编辑:规范决策与强化监督

(1)保密性优先

为避免泄密、引发隐私权纠纷,编辑应对投稿和同行评议过程保密。因此,论文手稿、同行评审报告,以及稿件处理过程中包含敏感信息的通知、函、信件等文件均不能上传至AI。

(2)禁用AI支持决策

编辑不得依赖AI进行稿件评估或协助决策,因为决策过程中所需的批判性思维和原创性评估超出了该技术的范围,并且该技术有可能产生虚假的、不完整的或有偏见的信息。

(3)强化责任追溯

如果怀疑作者或审稿人违反了AI使用政策,编辑应及时通知出版机构采取应对措施。


虽然越来越多的出版机构出台了AI使用策略,但某些方面仍存在较大差异。例如,Elsevier仅要求作者声明AI的使用情况,而BMJ、Taylor & Francis和Wiley则遵循国际出版伦理委员会(COPE)的相关建议,制定了更为严格的使用规范。这些出版机构要求作者在致谢部分(Acknowledgement)批露是否使用了AI,如果使用了AI则需要在方法部分(Method)或附录部分(Appendix)详细阐述使用过程。此外,还要求作者提供使用AI的名称及版本号、使用AI的原因、使用AI的方式,甚至要求提供AI输入和输出的内容,以及作者对AI输出内容的审查过程,以供编辑参考。

AI在学术研究中潜力巨大,但唯有以严谨与透明的态度加以运用,才能确保技术创新与学术诚信并行不悖。出版机构的规范引领既是指路明灯,也是学术环境的保护伞。未来,期待业界可以建立起更加统一、科学的AI使用标准,推动AI在学术领域健康、合理应用。

扫码下载

《负责任研究行为规范指引(2023)》、《学术出版中的AIGC使用边界指南2.0》


参考文献

[1] KENDALL G. When using Artificial Intelligence Tools in Scientific Publications Authors should include the Prompts and the Generated Text as Part of the Submission [J]. Journal of Academic Ethics, 2024. https://doi.org/10.1007/s10805-024-09581-0.

[2] 科技部监督司. 负责任研究行为规范指引(2023) [EB /OL]. (2023-12-21) [2025-01-07]. https://www.most.gov.cn/kjbgz/202312/W020231221582942330036.pdf.

[3] 中国科学技术信息研究所. 学术出版中的AIGC使用边界指南2.0 [EB /OL]. (2024-09-26) [2025-01-07]. https://www.istic.ac.cn/ueditor/jsp/upload/file/20241009/1728463944539087271.pdf.

[4] Dawn Attride. Giant rat penis redux: AI-generated diagram, errors lead to retraction [EB/OL]. (2024-07-22)[2025-01-07]. https://retractionwatch.com/2024/07/22/giant-rat-penis-redux-ai-generated-diagram-errors-lead-to-retraction.

[5] Elsevier. Generative AI policies for journals [EB/OL]. [2025-01-07]. https://www.elsevier.com/about/policies-and-standards/generative-ai-policies-for-journals.

[6] BMJ. AI use [EB/OL]. [2025-01-07]. https://www.bmj.com/content/ai-use.

[7] Springer. Artificial Intelligence (AI) [EB/OL]. [2025-01-07]. https://www.springer.com/us/editorial-policies/artificial-intelligence--ai-/25428500.

[8] Wiley. Wiley's AI Principles [EB/OL]. [2025-01-07]. https://www.wiley.com/en-gb/terms-of-use/ai-principles.

[9] Taylor & Francis. AI Policy [EB/OL]. [2025-01-07]. https://taylorandfrancis.com/our-policies/ai-policy.


附件: