将 AI 列为论文作者是否合规,需严格遵循学术规范和出版政策。目前国际学术界已形成明确共识:AI 不具备作者资格,任何将 AI 作为作者或合著者的行为均属于学术不端。 以下是具体判断依据和合规操作指南:
一、AI 无法满足作者资格的核心要件
-
法律与伦理层面的不可行性学术论文的作者需承担法律责任和伦理义务,包括但不限于:
【降AIGC率工具】【知网AIGC率检测】 【MASTER AI检测 】【万方AIGC检测】【维普AIGC检测】【【大雅AIGC检测】【Turnitin AI检测】【机器写作检测】
- 对研究数据的真实性、结论的可靠性负责;
- 处理利益冲突声明、版权协议签署等法律事务;
-
应对同行质疑、参与学术争议答辩。
AI 作为非法律实体,无法履行上述义务。例如,《COPE 关于使用 AI 工具的立场声明》明确指出,AI 不能断言利益冲突,也无法管理版权协议。
-
学术贡献的实质性缺失学术作者身份要求对研究有实质性贡献,包括:
- 提出研究问题、设计实验方案;
- 分析数据、解释结果;
-
撰写并修改论文核心内容。
AI 仅能执行指令(如生成文本、处理数据),其输出依赖人类预设的提示词和算法,不具备独立思考和学术判断能力。例如,《自然》《科学》等顶刊强调,AI 生成内容属于 “工具辅助”,不能替代人类作者的创造性劳动。
-
学术责任的不可追溯性若论文因数据造假、结论错误等问题被撤稿,需明确责任主体。AI 无法承担责任,而人类作者若未对 AI 输出进行严格验证,可能面临学术不端指控。例如,2024 年《Frontiers in Cell and Developmental Biology》撤回一篇论文,原因是 AI 生成的实验图像存在明显错误(如大鼠被描绘有四个睾丸),而作者未履行审核义务。
二、国际与国内的权威政策界定
-
国际出版机构的统一立场
- Elsevier:要求在论文末尾单独设立 “生成式 AI 声明” 章节,明确工具名称、使用方式及人类验证过程,但严禁将 AI 列为作者。
- Springer Nature:AI 生成内容占比超过 15% 需单独附录说明,但 AI 始终不具备署名权。
- IEEE:允许在致谢部分提及 AI 辅助(如 “使用 ChatGPT 优化语言表达”),但必须声明 “作者对内容负全责”。
- COPE:强调 “AI 不能作为作者,因无法对论文完整性负责”。
-
中国的学术规范要求
- 科技部:2023 年发布的《负责任研究行为规范指引》明确禁止 “将生成式人工智能列为成果共同完成人”,并要求对 AI 生成内容进行标注和验证。
- 学位法草案:将 “人工智能代写” 列为学术不端行为,撤销学位证书。
- 高校与期刊:清华大学出版社禁用境外 AI 工具处理稿件;《中华医学杂志》《暨南学报》等明确拒绝 AI 署名,隐瞒使用情况将退稿或撤稿。
三、合规使用 AI 的操作指南
-
明确 AI 的工具属性
-
可接受的使用场景:
- 文献检索与整理(如用 Zotero+AI 快速筛选文献);
- 语言润色(如 Grammarly 优化语法错误);
- 数据可视化(如 Tableau 生成图表框架)。
-
不可逾越的红线:
- 让 AI 独立生成论文核心内容(如研究假设、实验结论);
- 伪造 AI 参与痕迹(如虚构提示词历史)。
-
可接受的使用场景:
-
完整披露 AI 使用细节
-
披露内容:
- 工具名称及版本(如 “ChatGPT-4o 2025 年 3 月版”);
- 使用环节及贡献比例(如 “AI 生成文献综述初稿,占全文 18%”);
- 验证方法(如 “所有 AI 生成数据经人工核对并通过 X 数据库交叉验证”)。
-
披露位置:
- 人文社科论文:在 “致谢” 部分简要说明;
- 理工科论文:在 “材料与方法” 章节详细记录;
- 医学论文:需通过伦理审查并在 “伦理声明” 中提及。
-
披露内容:
-
建立过程留痕机制
- 保存 AI 交互记录(如提示词、生成内容、修改日志),作为学术透明性的证据。例如,Elsevier 试点 “AI 溯源系统”,要求作者上传完整对话记录。
-
区分人类与 AI 的贡献。例如,使用 Markdown 格式标注 AI 生成段落(如
<!-- AI辅助:文献综述初稿 -->),便于审稿人追溯。
四、典型案例与风险警示
-
因 AI 署名导致的撤稿事件
- 2023 年《Physica Scripta》撤回一篇物理学论文,因作者直接复制 ChatGPT 输出内容且未审核,文中出现 “Regenerate response” 等 AI 特有提示词。
- 2024 年《Medicine》撤回一篇关于痛风治疗的论文,其 AI 生成的医学插图存在骨骼数量错误,作者未履行验证义务。
-
学科差异下的风险等级
- 医学 / 生物学:对 AI 生成内容容忍度最低,严禁 AI 参与患者数据分析或实验图像生成。
- 计算机科学:允许 AI 优化算法代码,但需提供可执行文件及人工调试记录。
- 人文社科:虽允许 AI 辅助文献综述,但核心理论框架必须由人类提出,且 AI 内容占比通常不超过 20%。
五、未来趋势与应对建议
-
技术检测与伦理审查的强化
- 2026 年前,70% 期刊将采用 “AI 贡献度量化指标”,要求作者提交提示词、修改痕迹等过程性材料。
- 医学领域新增 “AI 伦理审查” 环节,需说明 AI 使用是否符合《赫尔辛基宣言》等伦理准则。
-
学术评价体系的转型
- 从 “结果评价” 转向 “过程评价”,重视提示词设计、AI 输出修正记录等反映人类主导性的材料。
- 建立 “学术 AI 信用体系”,对合规研究者给予审稿加速等激励,对违规者实施联合惩戒。
总结:AI 作为工具可辅助学术研究,但将其列为作者违反学术规范的核心原则。合规的做法是:明确 AI 的工具属性,完整披露使用细节,严格验证输出内容,并对研究成果负全责。只有这样,才能在享受技术便利的同时,维护学术诚信的底线。
上一篇:AI“美化” 实验数据算造假吗? 下一篇:没有了


