寿步 | 从中国社会科学杂志社的生成式人工智能使用规范谈起
目次
一、引言
二、如何让学术规范适应技术的变革
三、应用GenAI作品的贡献分配标准的框架
四、结语
引言
笔者先前发文《AI agent可否署名为作品的第一作者》,核心观点如下:
(1)关于人工智能生成内容(AIGC)的可版权性和版权人的基本判断。在仅向大语言模型(LLM)输入提示语的情况下,版权理论中的创意/表达两分法因不具备“可预测性、确定性、可解释性”而不成立,应用生成式人工智能(GenAI)技术所得的AIGC没有可版权性,人类因而无法成为版权人。AI学科研究的是agent(行为体),宗旨是构建intelligent agent(智能行为体)。如果将可版权性拓展至这一类AIGC,那么,具备agent的弱概念所要求的四项特性的AI agent(人工智能行为体)即可成为“潜在的版权人”;AI agent能否成为“正式的版权人”则取决于法律是否将其列为版权主体。
(2)AI agent的弱概念特性与LLM的契合性。AI agent的弱概念包含四项特性——自主性(无直接干预,能控行动与内部状态)、社会性(可与其他主体互动)、反应性(感知环境并及时反应)、主动性(以目标为导向自发工作)。当前人们使用的LLM具备这四项特性,所以属于AI agent。
(3)AI agent的版权主体地位与署名的区分。AI agent能否成为法律主体(含版权、民事、刑事主体)完全取决于法律的规定。目前各国版权法都没有将AI agent列为版权主体,但也没有禁止AI agent署名为作者、包括署名为第一作者。
(4)人类在应用GenAI生成AIGC时的行为不构成创造性贡献的情形。单纯输入提示语(不论一次还是多次),微小的机械性修改(如改错别字、调图像大小等),无目的的随机操作(无清晰意图,随意生成选择结果),这些情况下人类行为都不视为创造性贡献。
(5)AI agent署名第一作者的合理性与承担责任的区分。在人类的行为并不构成创造性贡献的情况下,LLM这一类AI agent是AIGC主要贡献者,类似于传统论文署名的第一作者,将AI agent署名为第一作者是自然的安排。这种署名仅仅是身份的标注,反映了对学术成果的实际贡献情况,并不代表AI agent已经是版权人,也不代表AI agent需要承担法律责任。在由AI agent完成编程、图表生成、文章撰写等核心工作的情况下,需要将提供支持/监督的人列为共同作者或通讯作者,由人来承担法律责任。
注意到,《中国社会科学杂志社关于规范使用生成式人工智能工具的启事》(以下简称“《启事》”,https://www.cssn.cn/ggzp/202505/t20250515_5873974.shtml)于2025年5月15日发布。
本文认为,《启事》虽然意在维护学术伦理,但是在对AI技术本质的认知、学术贡献的界定、规范适应性等层面却存在显著的局限,其规定与AI时代学术发展的内在需求存在多重张力。下面从《启事》谈起,讨论学术规范如何适应技术的变革、应用GenAI作品的贡献分配标准的框架等相关问题。
二、如何让学术规范适应技术的变革
1. 如何认识AI agent的工具性与主体性边界的模糊
经统计,《启事》从标题到正文,“工具”二字出现了12处,“生成式人工智能”也出现了12处,其中的10处“生成式人工智能”之后都加上了“工具”二字,只在2处“生成式人工智能”之后没有加上“工具”二字,而这两处只是隐去了“生成式人工智能”的名称或全称而已。换言之,《启事》始终将GenAI定位为被动的工具载体,其中“不接受生成式人工智能工具署名或撰写的稿件,以及由生成式人工智能工具生成内容直接作为研究成果的投稿”“仅限于语言润色、文献检索、数据整理与分析等非核心研究环节”的规定,本质上恐怕是对AI agent技术属性的误读。实际上,当前LLM已符合AI agent弱概念的四项核心特性——自主性、社会性、反应性、主动性,具备独立完成从研究设计到内容生成的实质性工作能力,绝不仅仅是单纯的“辅助工具”。
这样的认知偏差导致规范陷入逻辑矛盾:一方面实际上承认AI agent具有“生成文章的主体架构、核心观点和主要内容”的能力,另一方面又规定只接受“仅限于语言润色、文献检索、数据整理与分析等非核心研究环节”的投稿。
事实上,2025年9月9日Cell刊发研究报道《AI mirrors experimental science to uncover a mechanism of gene transfer crucial to bacterial evolution》(https://www.sciencedirect.com/science/article/pii/S0092867425009730),不仅揭示了细菌世界中一个悬而未决的基因转移之谜,更值得注意的是,该核心假说的提出者并非人类研究者、而是一位被称为人工智能合作科学家(AI Co-scientist)的特殊“同事”。它以一种近乎“独立思考”的方式,绕过了人类研究者的思维定势,提出了一个与后续实验结果惊人吻合的复杂生物学机制。该文摘要指出,“AI不仅可以作为一种工具,还能充当创造性引擎,加速科学发现,并重塑我们生成和检验科学假设的方式。”
如果我们对于“人类进行学术研究的终极目标是探索宇宙、造福人类”这一点没有异议,如果生成式人工智能的生成结果有助于探索宇宙、造福人类,那么,相关的学术规范是否应该服务于这样的终极目标呢?就哲学社会科学研究而言,假设有人通过应用GenAI生成AIGC得到了前所未有的有利于人类福祉的重大成果,假设成果是由AI agent生成了文章的主体架构、核心观点、主要内容,那么,我们就应该或者必须将此成果埋没而不允许其公开发表以便造福人类吗?是完全拒稿,还是接受投稿、同时要求完整准确地标注人类和AI agent各自的贡献?只要以探索宇宙造福人类为终极目标,那么这一问题就是可讨论的。
当AI agent主导完成研究假设生成、数据分析乃至核心观点阐释等工作时,人类仅承担指令优化和质量把关的角色,此时如果剥夺AI agent的署名,恰恰违背了“贡献与署名匹配”的学术基本准则。《启事》对AI agent的主体性的刻意回避,恐怕难以应对“AI agent的实质性贡献”这一新的学术命题。
2. 如何避免传统学术生产逻辑的固化
单纯输入提示语(不论一次还是多次)、进行机械性修改等行为不构成创造性贡献,只有当人类参与实质性智力投入时,才具备成为核心作者的资格。而《启事》将应用GenAI“生成文章的主体架构、核心观点和主要内容”直接归入禁止范围,没有区分是否存在人类的创造性介入,陷入了凡AI agent参与核心环节即违规的简单化判断。
这样的认定标准存在双重缺陷:一是忽视了AI agent的独立创作能力;二是混淆了技术滥用与合理创新的边界。在没有人类直接干预时AI agent自主完成核心内容的生成、而人类只是进行辅助工作的情况下,与AI agent署名为第一作者、同时人类署名为通讯作者的模式相比,《启事》采用了全面禁止的模式。前一种模式既如实反映了AI agent的贡献价值、又明确了人类的监督责任,后一种模式则可能促使人类“冒名顶替”AI agent的实际贡献、加剧学术不端。
3. 如何避免法律框架脱离实践发展
(1)学术规范应该与法律的留白相适配
AI agent能否成为法律主体取决于立法是否明确规定。当前各国版权法既未将其列为版权主体,也未禁止其署名。《启事》规定不接受AI agent的署名,本质上是在缺乏法律依据的情况下自行设定权利边界。这样的规范一方面与“法无禁止即可为”的法治原则存在冲突,另一方面也忽视了署名与版权其他权利的可分离性(这里涉及的版权理论部分在本文中不展开)——AI agent的署名可以仅仅作为学术贡献身份的标注,与版权归属、法律责任并无必然关联。
(2)学术规范应该避免与学术实践脱节
《启事》将应用GenAI限定在“语言润色、文献检索、数据整理与分析等非核心研究环节”,并对违反《启事》规定者设置“5—10年内禁止…发表”等严厉处罚措施,看似维护学术诚信,实则可能抑制学术创新。当研究者因担心违规而放弃利用AI突破传统研究范式时,哲学社会科学研究或将错失“智能赋能”的发展机遇。
《启事》还要求“应当说明投稿内容中运用生成式人工智能工具的部分(包括但不限于绘图、收集和分析数据),并标明工具名称、版本、使用时间和生成页面截图”等过度细节,既增加了学术生产的非必要成本,也未区分“AI agent辅助”与“AI agent主导”的披露差异,缺乏实操层面的精细化考量。
4. 如何避免责任机制的简单化
笔者提出的“AI agent署名+人类通讯作者担责”模式,既实现了贡献身份的真实标注,又明确了法律责任的归属主体,为人机协同研究提供了可行的责任框架。但《启事》将“全部法律与道德责任”完全归于人类作者,这种责任分配方式存在明显的缺陷:当AI agent自主生成的核心观点存在学术谬误或伦理风险时(如基于偏见数据得出误导性结论),如果人类只是进行常规性审核,就要求其承担全部责任既不符合“权责匹配”原则,也难以形成有效的风险防控机制。同时值得指出的是,《启事》关于不接受外审专家应用GenAI审稿并撰写外审意见书的规定,忽视了AI agent在识别数据异常、逻辑漏洞等方面的技术优势,可能会降低学术评价的效率与准确性。
综上所述,《启事》折射出传统学术出版机构面对技术变革的焦虑与某种程度的保守,其核心问题是用工业时代“人类中心主义”的学术规范应对智能时代“人机协同”的研究新范式。事实上,在AI agent参与学术创作已从“可选”变为“必然”的情况下,学术规范的核心应该从“禁止技术”转向“规范关系”,即通过明确AI agent的贡献的认定标准、建立“署名—责任”匹配机制、鼓励探索性实践,在维护学术诚信与拥抱技术创新之间寻求平衡。若固守“一刀切”的禁止性规范,不仅难以适应学术发展的现实需求,更可能在智能时代的学术竞争中陷入被动。
三、应用GenAI作品的贡献分配标准的框架
应用GenAI作品的贡献分配应该以“创造性劳动实质性参与”为核心,区分人类与AI agent的角色边界,兼顾技术特性与学术伦理。具体如下。
1.贡献分配的底层原则
单纯输入提示语时(不论一次还是多次),版权理论传统的创意/表达两分法因缺乏可预测性、确定性、可解释性而失效,人类的创意并没有转化为对个性化表达的精准控制,所以不构成创造性贡献。贡献分配的本质是判断究竟是谁的行为实质性塑造了作品的表达。因此需要进行创意/表达两分法的重构。
就AI agent的贡献而言,如果它(如LLM)独立完成了从“创意”落地到“表达”生成的核心过程(如自主构建论文框架、生成图表数据),且人类仅仅提供提示语指令(不论一次还是多次),则AI agent是表达的主导者。
就人类的贡献而言,只有当人类参与表达层面的实质性干预(如重构逻辑链条、修正核心结论、添加原创性案例),人类才构成创造性贡献。
2. 贡献类型的分层界定
人类署名为“操作者”的情况并不等于人类是“作者”。这里的关键区分点是人类贡献需要体现在对个性化表达的精准控制,而不是停留在创意层面。多次输入提示语仅仅是某种程度的方向指南但远远不够精准控制的程度。相关理由详见拙文《为什么中国首例人工智能文生图案应当再审?》中的“可数无穷集理论”。
3. 典型场景的贡献分配
在学术论文创作情形。一是AI agent主导场景的例子。AI agent独立完成文献综述、模型构建、数据分析,人类仅审核伦理合规性。署名方案是AI agent为第一作者,人类为通讯作者(承担法律责任)。二是人机协作场景的例子。人类设计研究假设,AI agent生成访谈提纲并分析数据,人类补充几个深度访谈案例。署名方案是人类为第一作者,AI agent为协作作者。
在技术开发文档情形。例如,AI agent生成代码框架,人类补充注释与异常处理逻辑(占代码量40%)。贡献方面是人类主导表达(逻辑完整性)。署名方案是人类为第一作者,AI agent标注为“代码生成工具”。
4. 责任和贡献的绑定机制
在法律责任方面,无论贡献比例,人类无论署名为通讯作者、作者、操作者都要承担全部法律责任(如侵权、学术不端),因为AI agent不是法律主体。
在版权归属方面,因为当前法律框架下只有人类可以成为版权人,所以在人类署名为通讯作者或作者的情况下,由人类享有版权;在人类署名为操作者的情况下,人类不享有版权。
在学术伦理方面,禁止“人类搭便车”——如果是AI agent主导创作,人类的贡献无法体现在对个性化表达的精准控制时,人类不得署名为作者或第一作者。
5. 立法层面的修改建议
宜将“精准控制表达”作为法定贡献标准。我国《著作权法》第三条规定:“本法所称的作品,是指文学、艺术和科学领域内具有独创性并能以一定形式表现的智力成果”,同时列举了符合作品定义的九类作品。可以在该条末尾增加一款:“人工智能生成内容如果体现人类对表达的精准控制,则属于本法所称的作品。”
6. 争议解决的操作指引
在贡献举证方面,主张贡献者应提交“创作轨迹包”,包括但不限于AI agent的原始输出与修改后版本的差异标注,如Word、WPS等文字处理软件的Track Changes文档;技术平台的操作日志,证明AI agent自主性,如LLM的“无人工干预连续生成”记录等。
在阈值判定方面,如果AI agent在无人类干预下完成连续创作行为(如自主生成3000字论文并配图),则默认其为主要贡献者。
在动态调整方面,人类与AI agent各自的贡献比例随创作阶段而变化。例如,在论文初稿中AI agent的贡献比例高,但人类在后续修改中添加核心实验数据、增加观点(人类的贡献比例提升),则署名应该相应调整。
总之,在AI引领科研范式变革的时代,有必要打破“工具—主体”的二元对立,以“贡献实质性”而不是“人类参与必要性”作为学术贡献的分配标准。这样的标准既承认AI agent的技术主体性(弱概念 agent),又坚守法律框架下的人类责任,为学术署名、版权分配提供了一种可操作的伦理指南。未来,随着AI agent自主性的增强,学术贡献的分配标准或将向“人机协同共治”演进,但当前阶段,以“精准控制表达”为锚点的分层分配,或许是平衡创新与规范的最佳方案。
四、结语
GenAI的迅猛发展,尤其是具备弱概念AI agent特性的LLM的崛起,正在深刻重塑学术研究的范式与生态。本文从剖析《启事》的局限性出发,系统阐述了AI时代学术规范、贡献分配标准等面临的挑战与革新方向。
核心争议点在于,当AI agent(如LLM)已经展现自主性、社会性、反应性和主动性并独立完成从研究设计到核心内容生成的实质性工作时,固守将其视为纯粹“被动工具”的传统认知,不仅与技术现实相悖,更可能扼杀“智能赋能”带来的学术创新机遇。《启事》所体现的“一刀切”禁止性规范,在“工具-主体”认知模糊、传统学术逻辑固化、法律与实践脱节、责任机制简单化等方面存在显著张力,难以有效应对“AI agent的实质性贡献”这一时代命题。
本文主张,学术规范亟需从“禁止技术”转向“规范关系”,关键是建立以“创造性劳动实质性参与”为基准的贡献分配框架。其核心在于重构创意/表达两分法,以“精准控制表达”作为衡量人类实质性贡献的关键标尺:仅有创意层面的提示语输入或机械性修改不构成实质性贡献,唯有对个性化表达进行实质性干预(如重构逻辑、修正结论、添加原创内容)方可认定实质性贡献。在此基础上,需要分层界定“AI agent主导生成”、“人机协作”等场景的贡献类型,实施差异化的署名方案(如“AI署名第一作者+人类通讯作者担责”),并明确版权归属与法律责任(在AI agent的法律主体身份缺失情况下人类须承担全部责任,但应依据实际贡献进行署名)。
展望未来,在AI参与学术研究已从“可选”变为“必然”的背景下,学术共同体应秉持开放与审慎并存的态度:一是拥抱变革,动态调适。学术规范应保持足够的弹性与前瞻性,避免成为技术进步的桎梏,宜及时响应AI agent能力的演进。二是贡献为本,权责明晰。坚守“贡献与署名相匹配”的学术伦理核心,探索建立 “精准控制表达”可操作的的量化与质化标准,构建“署名-责任”的强关联机制,尤其厘清人类在监督、审核环节的责任边界。三是法律协同,预留接口。学术规范应与法律留白空间相适配,在现有版权主体框架下探索合理的解决方案,立法层面可以将“体现人类精准控制表达”作为AIGC可版权性的认定标准,为未来AI agent的主体地位的法律演进预留接口。四是伦理为先,防控风险。在鼓励创新的同时,必须强化AIGC的伦理审查与风险防控机制,警惕数据偏见、学术谬误、伦理失范等问题,确保技术向善。
最终,构建适应AI时代的学术新秩序,关键在于打破“人类中心主义”的单一视角,在人机协同的实践中探索平衡点。这不仅关乎学术诚信的维护,更关乎人类能否善用智能工具,在“探索宇宙、造福人类”的终极目标上实现质的飞跃。唯有正视AI agent的实质性贡献,规范其使用路径,明确权责归属,方能确保AI技术真正赋能学术繁荣,而非成为束缚创新的无形枷锁。学术规范的演进,注定是一场在变革张力中寻求动态平衡的智慧之旅。
作者:寿步
编辑:Sharon



