软著登记要你承诺"没用过 AI":这条规则到底在干什么

这条新规真正打击的是 AI 批量灌水式软著申请,但它用了一种过度粗暴的写法。 把独立开发直接等同于没用过 AI,会把大量正常辅助开发者也推进失实承诺的灰区。 治理问题是真实的,声明文本却把工具使用和作者性混成了一件事。

2026年3月22日


如果你在中国做软件开发,从 2026 年 3 月 15 日开始,申请软件著作权登记(简称”软著”)时需要在表格上手抄一段承诺:你没有使用 AI 来编写代码、撰写文档或生成申请材料。签上名字,附上身份证号。如果日后被认定为虚假声明,你会被列入版权登记失信名单,记入个人征信。

这篇文章试图回答以下问题:这条规则到底改变了什么,它在治理什么具体问题,它为什么和你用 Copilot 写代码之间有冲突,以及这件事接下来可能怎么发展。

先交代一下软著是什么,为什么有人在乎

如果你没办过软著,以下这几条背景需要先知道。

软件著作权登记是中国版权保护中心(CPCC)提供的一项行政服务。它不是创作版权本身(版权是自动产生的),而是一张官方证书,证明你对某个软件拥有著作权。这张证书在几个场景下有实际商业价值。

第一个场景是安卓 App 上架。在中国,华为、小米、OPPO、vivo 等主流安卓应用市场都要求开发者提交软著证书才能上架应用。小米开发者平台明确写了”软件著作权证书需与发布的应用名称一致”。iOS App Store 不要求软著,但中国安卓市场占据超 70% 的移动分发份额,绕开安卓在商业上通常不可行。

第二个场景是融资和尽职调查。在投融资交易中,软著证书是企业 IP 资产清单的一部分。投资人的律师团队会核查你的软著权属是否清晰。环球律师事务所在一篇关于 AI 企业投融资尽调的分析中指出,“知识产权权属清晰性、技术独立性以及潜在纠纷风险直接关系到企业的合规性与持续经营能力”。

第三个场景是高新技术企业认定(简称”高企认定”)。这是一个税收优惠政策:通过认定的企业可以把所得税税率从 25% 降到 15%。认定条件之一是企业需要持有一定数量的知识产权,而 10 件软著就可以满足这一要求。这个条件催生了一个稳定的市场需求:有些企业不是因为有软件要保护才去登记软著,而是为了凑够 10 件来申请税率优惠。

以上三点解释了为什么软著登记数量年年增长。2025 年全国软著登记量达到 318 万件,同比增长 12.58%。这个增长不全是真实的软件开发活动在推动。

发生了什么

2026 年 3 月 15 日,中国版权保护中心发布新版软件著作权登记申请表,同时宣布建立版权登记申请诚信制度。根据深圳市和安徽省软件行业协会对新旧版本的对比梳理,新版申请表有两处关键变化。

第一处是签章页新增了一段手抄承诺。原文:“本软件确系人的独立开发,未使用 AI 开发编写代码、撰写文档或生成登记申请材料。”紧接着是:“如有失实或欺骗,自愿承担列入版权登记失信名单及个人征信记录,并承担由此引发的法律责任及后果。”经办人需签名并附身份证号。

第二处是软件主要功能描述从原来的 200 字以内提升到 500 至 1300 字。

这两处变化共同指向一个目标:让模板化、批量化的申请变得更难提交。手抄承诺增加了自动化送件的摩擦,身份证绑定把法律责任从机构下沉到个人,功能描述字数的大幅提升则要求申请人对软件有更具体的了解。

需要指出一点信息局限:截至本文写作日,CPCC 官网原始公告的全文没有稳定的公开链接可直接获取。上述信息来自湖北省版权保护中心的转述、澎湃新闻的报道,以及深圳和安徽两地软件行业协会的解读。多个独立来源的内容高度一致,可信度较高。

这条规则在治理什么问题

理解这条规则,需要看到它出现的时间线和背后的因果链。

2025 年 7 月,国家版权局印发了《关于加快推进版权事业高质量发展的意见》,要求”统一登记标准,规范登记流程,提升登记质量”。2026 年 2 月 14 日,版权保护中心召开专题会议研究部署治理”非正常软件版权登记申请”。2 月 25 日这一消息公开。3 月 15 日新版申请表施行。从部署到落地大约一个月。在可检索范围内,没有找到针对新版申请表的公开征求意见程序。相比之下,专利领域的”非正常申请”治理从 2021 年开始部署,到 2024 年正式施行用了大约三年。

多个来源明确指向同一个直接诱因:代办机构用 AI 工具批量生成软著申请材料。天津市软件行业协会的转述原文提到”部分机构以’低价’、’100%下证’为噱头,使用 AI 批量生成模板化材料,导致软著申报泛滥,干扰正常审核秩序”。北美智权报列出了四类重点打击行为:批量灌水式申请、滥用 AI 生成伪造资料、套用范本代写与源码抄袭、重复登记与恶意囤积套取补贴。

更深一层的逻辑是这样的。软著登记长期实行的是”形式审查”,意思是审查员只检查你的材料是否齐全、格式是否符合要求,不会去验证你的软件是否真实存在或代码是否真的是你写的。这种审查方式在过去运行还算顺畅,因为伪造一套看起来真实的软著材料需要一定的人力和时间成本。但 2024 至 2025 年间 AI 编码和文档工具大规模普及之后,这个成本被压到了极低。一个代办机构用 ChatGPT 或 DeepSeek 可以在很短时间内批量生成代码和文档,每一份看上去都格式规范、内容完整,形式审查难以识别。

与此同时,前面提到的高企认定套利需求一直存在:企业需要 10 件软著来满足认定条件,有些企业选择通过代办机构批量申请来凑数,而不是基于真实的开发活动。AI 工具让这条产业链变得更快、更便宜。2026 年高企认定第一批申报季在 6 月,这也解释了为什么收紧要赶在 3 月落地。

版权保护中心面对的局面是:形式审查体系本身无法升级为实质审查(那意味着完全不同的人力和流程投入),但放任不管又会让虚假申请持续涌入。在这个约束下,它选择的方案是要求申请人做一个个人承诺,把核查责任从审查员转移到申请人自己身上,并通过失信惩戒来提高虚假声明的预期代价。

这个逻辑本身可以理解。但问题出在承诺文本的写法。

为什么”独立开发”和”未使用 AI”不是同一件事

新版签章页要求申请人同时确认两件事:软件是”人的独立开发”,以及”未使用 AI 开发编写代码、撰写文档或生成登记申请材料”。这个表述把两者绑在了一起,好像使用了 AI 就不算独立开发。

但在法律层面,这两个判断指向完全不同的问题。

“独立开发”是关于作者性和权属的声明。它的意思是:这个软件是你(或你的团队)作为主体开发出来的,而不是抄袭别人的或者委托第三方编写后冒充自己的。这个声明关注的是”谁是作者”。

“未使用 AI”是关于开发工具和过程的事实陈述。它关注的是”你在开发中是否用了某一类特定的工具”。

一个开发者完全可以独立开发一个软件,同时在过程中用 Copilot 做代码补全、用 ChatGPT 帮忙起草文档初稿,然后对所有 AI 输出进行实质性的修改、选择和整合。在这种场景下,独立开发是成立的(软件确实是这个开发者主导完成的),使用 AI 也是事实。两者并不矛盾。

中国法院对此已经有了明确的态度。自 2023 年 11 月以来,北京互联网法院等多个法院在判决中确认,利用 AI 生成的内容如果体现了人类用户的”独创性智力投入”,仍然可以构成著作权法保护的作品。中伦律师事务所对多地法院判决的分析指出,司法裁判已经为”智力投入”标准建立了一个相对宽松的标尺。最高人民检察院 2025 年 4 月的理论文章也确认了这一立场:“当前裁判实践普遍认为,若生成内容体现使用者实质智力投入并具有独创性表达,可构成受著作权法保护的作品。”

也就是说,法院认为 AI 是工具,用了工具不等于丧失作者身份,关键看人类对最终表达有没有足够的控制和贡献。但申请表的文本走的是另一个方向:不问你贡献了多少、不问你怎么用的 AI,只要求你做一个二元的事实判断——你用了还是没用。

这导致申请人面对的问题从”我的软件是否满足独创性要求”(一个关于质量和贡献度的判断)变成了”我是否在任何环节使用过任何 AI 工具”(一个关于事实真伪的声明)。后者的风险要高得多,因为它不看比例、不看贡献,而且虚假声明直接和失信惩戒挂钩。

灰色地带有多宽

在 AI 编程工具已经成为日常基础设施的 2026 年,“未使用 AI”这个标准制造了非常宽的灰色地带。

比如以下这些场景:你在 VS Code 里开着 Copilot 的自动补全,它帮你补了一行代码,你看了觉得对就用了。这算”使用 AI 开发编写代码”吗?你用 ChatGPT 生成了一段技术文档的初稿,然后花了两个小时改写成最终版本。这算”使用 AI 撰写文档”吗?你用 AI 工具生成了测试用例,但这些测试代码不进入最终提交的鉴别材料。这算吗?

严格按照声明文本的字面意思,以上场景都可以被解读为”使用了 AI”。但规则实际想打击的是代办机构用 AI 从零生成整套申请材料的行为。问题在于,声明文本本身没有做出这种区分。

2025 年中国软件行业协会的数据显示,AIGC 技术在代码生成等环节的应用占比已突破 60%。GitHub Copilot 的用户超过 180 万。在这个行业现实下,要求所有申请人声明”未使用 AI”,意味着大量正常使用 AI 辅助工具的开发者需要做一个选择:签下与事实不符的承诺,或者放弃软著登记。

目前,版权保护中心没有发布过关于”AI 辅助”和”AI 生成”的界定标准,也没有为如实披露 AI 使用情况的申请人提供签章页的替代路径。在此之前的 2025 年,实务中已经出现过针对涉 AI 软件要求提交”AI 合规声明”的操作,一些代办平台也提供了相应的模板。但这套实务操作和新版签章页的”未使用 AI”承诺之间存在方向上的张力,两者如何衔接缺乏官方指引。

这对 AI 开发者意味着什么

这条规则的下游影响可以从几个具体场景来看。

登记环节。 最直接的后果是合规难度提高。2026 年软著审核的补正率已超 60%,驳回率同比上涨超 40%,申请周期从大约 3 个月拉长到 4 至 5 个月。新版申请表的 AI 承诺条款会进一步加大这一趋势。对于使用了 AI 辅助的开发者来说,在没有明确替代路径的情况下,登记过程处于不确定状态。

安卓 App 上架。 由于安卓应用市场硬性依赖软著证书,如果一个使用了 AI 辅助开发的新应用无法在不做虚假承诺的前提下完成软著登记,它在中国安卓市场的上架流程就会被阻断。开发者可能被迫只在 iOS 或海外市场分发,但这意味着放弃中国最大的移动应用分发渠道。

融资尽调。 新规则施行后,投资人的律师团队会把软著登记时的 AI 声明与实际开发过程的一致性列为核查重点。如果发现一家公司声明”未使用 AI”但实际开发中大量使用了 AI 辅助,这构成尽调中的重大风险敞口,可能导致交割条件争议或估值调整。投资协议中也可能新增条款,要求目标公司就软著声明的真实性做出专项保证。

商业授权和侵权争议。 签章页上的承诺构成了申请人对国家版权登记机构的书面自认。如果竞争对手在诉讼中能够证明你实际使用了 AI 但声明没有使用,你的软著登记可能面临被撤销的风险,你本人也可能因虚假陈述承担额外法律责任。目前没有这方面的判例,但规则设计确实创造了这个攻击面。新规则还引入了一个时间节点的不对称:2026 年 3 月 15 日之前登记的软著不受新版声明约束,之后的则受约束。旧软著在诉讼中可能被质疑开发过程但缺少声明约束,新软著则面临声明真实性的举证压力。

开发者行为。 规则施行后会出现三条选择路径:签署与事实不符的承诺以获得登记,承担潜在的失信风险;拒绝签署,放弃软著登记及其附带的商业利益;或者寻找尚不确定的替代合规路径。在执行力度不明确的情况下,一部分人会选择第一条路。这产生了一个反向激励:诚实的人退出或者焦虑,而愿意承担风险的人学习如何消除 AI 使用痕迹(业界称之为 human-wash),最终损害的是声明体系本身的可信度。

合规成本分配。 保留完整研发痕迹(Git 记录、版本日志、AI 使用记录)、准备人工创作占比说明、应对补正——这些成本对有法务团队的大型企业可以消化,但对独立开发者和小微团队构成实质性负担。如果规则得到严格执行,可能拉大两类主体之间的效率差距:大公司照常使用 AI 并通过合规手段化解风险,小团队因为合规恐惧而减少 AI 工具的使用。

其他国家怎么处理这个问题

在 AI 辅助创作的版权归属问题上,全球主要法域有一个高度共识:纯 AI 自主生成、没有人类实质性贡献的内容不构成受版权保护的作品。中国法院也持这一立场。分歧在于,各国选择了不同的执行路径。

美国走的是”披露加免责”路径。申请人在版权登记时必须披露 AI 的使用,在表格中描述人类原创部分,标注 AI 生成的部分并声明不就该部分主张版权。版权局不会因为你使用了 AI 就拒绝登记,只要人类贡献部分满足独创性要求就可以。如果拿到登记后被发现有未披露的 AI 内容,需要补充登记更正;故意隐瞒可能导致登记被取消。这是一个基于信息透明度和事后纠错的机制。

欧盟走的是”把压力放在 AI 提供商”的路径。2024 年 8 月生效的《人工智能法》要求通用 AI 模型的提供商公布训练数据的摘要,AI 生成的内容需要以机器可读方式标记。欧盟没有统一的版权登记制度(版权自动产生),也没有要求创作者声明是否使用 AI 的义务。透明度义务主要约束的是 AI 系统的提供方,而不是使用 AI 工具的开发者。

英国有一个独特的制度遗产。1988 年的《版权、设计与专利法》第 9 条第 3 款规定,对于”在没有人类作者的情况下由计算机生成的作品”,作者视为”为作品创作做出必要安排的人”。这意味着英国法律在 1988 年就预留了对纯计算机生成作品的保护可能。英国没有强制版权登记制度,也没有 AI 使用声明的要求。

日本在训练数据端选择了全球最宽松的立场。著作权法第 30 条之 4 允许为数据分析(包括 AI 训练)而复制受版权保护的作品,即使出于商业目的。在输出端,日本仍然要求人类的创造性贡献,但既没有强制登记,也没有 AI 使用声明的要求。

对比之下,中国的路径有一个显著特征:它把 AI 合规审查嵌入到了知识产权确权的源头,在行政登记环节执行。这在其他法域几乎没有对应物。美国版权局的披露义务在形式上最接近,但美国的做法是”告诉我你用了哪些 AI,然后你不主张 AI 生成部分的版权就行”,而中国的做法是”你必须声明你没有用 AI”。一个是要求透明披露,一个是要求事实否认。这是方向上的差异。

另一个需要注意的差异是代码和图片/文本之间的区别。目前国际上关于 AI 生成内容版权的标志性案例主要涉及图片和文本。图片有可辨识的风格特征(比如 Midjourney 生成的图有特定美学),生成前后的对比容易做。代码不一样:AI 生成的代码和人类写的代码在形式上几乎无法区分。Git 可以追踪修改历史,但无法自动标注哪些修改来自人类、哪些来自 Copilot。把图片/文本领域的规则直接类推到代码时,举证难度有本质差异。

后续可能怎么演化

这条规则未来的走向取决于版权保护中心后续的政策选择和执行力度。

一种可能是补上 AI 辅助开发的正式披露路径。如果版权保护中心在后续推出补充模板或替代签章选项,允许申请人在如实声明 AI 使用情况的前提下完成登记,那么当前的绝对化承诺可以被理解为过渡期的临时措施。2025 年实务中已经出现过要求涉 AI 软件提交合规声明的操作,说明版权保护中心并非完全否认 AI 辅助开发的存在。从这个方向看,补充路径的出现是有可能的,但时间表不确定。

另一种可能是失信惩戒得到实质性执行,但补充路径迟迟不到位。在这种情况下,规则会持续制造诚信陷阱:大量使用了 AI 辅助的开发者要么做虚假承诺,要么退出登记体系。这会驱动大规模的 human-wash 行为,最终损害的是声明体系本身的可信度,而造假者不一定是最受影响的人。

第三种可能是执行力度有限,规则主要起到威慑作用。版权保护中心的核查能力是否足以逐案验证 AI 使用情况,目前并不清楚。如果失信惩戒停留在纸面威慑层面,行业会迅速形成默认的规避惯例,对实际开发行为影响不大。但即便如此,规则的存在仍然制造了一个长期的法律风险敞口:任何人在未来的争议中都可以把这个声明拿出来作为攻击工具。

从更长的时间尺度看,这条规则可以放在一个更大的趋势里理解。专利和商标领域的”非正常申请”治理已经运行了多年,2019 年商标法修订明确驳回”不以使用为目的的恶意注册”,2024 年专利领域的规定正式施行。软著领域的整治是知识产权信用体系从专利、商标延伸到版权的最后一步。从这个角度看,规则的出台有其制度演进的必然性。但具体的治理手段——要求所有人声明”未使用 AI”——是否是当前约束下的最优选择,值得持续关注。

这条规则也有正面意义。它可以提高软著证书的公信力:在融资、IPO 和技术转让场景中,一张经过更严格审查流程的证书确实比一张无门槛的证书更有说服力。它也可以在源头上遏制”纸面软件”对登记数据的污染。这些效果能否对冲它在灰色地带制造的合规成本和诚信风险,取决于后续演进。

仍然不确定的事项

以下几点在本文写作时没有确定答案,读者在判断时需要留意。

版权保护中心是否会推出针对 AI 辅助开发软件的补充声明模板或替代路径,目前没有官方确认。此前 2025 年的实务操作(要求涉 AI 软件提交合规声明)与新版签章页的”未使用 AI”文本之间如何衔接,也没有官方指引。

失信惩戒与个人征信系统的联动深度和具体执行细则尚未公布。是否存在”自查自纠”的宽限机制、认定”失实”的标准是什么、惩戒力度如何递进,这些操作层面的关键问题目前都是空白。

“AI 辅助”与”AI 生成”的界定标准完全缺失。IDE 内置的代码补全、文档润色、测试代码生成——这些日常开发中的常见场景在声明意义上属于什么状态,没有任何指引。

本文关于新版申请表内容的信息主要来自湖北省版权保护中心、深圳市和安徽省软件行业协会的转述,以及澎湃新闻等媒体报道。版权保护中心官网的原始公告未能直接获取到。


来源说明

本文引用的事实和原文摘录来自以下类别的来源,按可靠性递减排列:

官方及准官方来源:国家版权局公告及统计数据、湖北省版权保护中心转述 CPCC 通知、最高人民检察院理论文章、澎湃新闻报道、美国版权局 AI 政策文件、欧盟 AI Act 条文、日本文化厅指引。

行业协会与律所分析:深圳市和安徽省软件行业协会对申请表变化的梳理、中伦律师事务所和环球律师事务所的研究、北美智权报分析、Quinn Emanuel 中美比较研究。

代办平台实务信息:著梦网、网弧软著、软著宝、软著 Pro 的指南和数据。这类来源反映窗口实务操作,不等同于官方规则,引用时已标注其性质。

具体 URL 见前序调研报告(20260322_软著登记AI声明调研.md20260322_软著AI声明_下游影响分析.mdai_copyright_intl_comparison_survey_20260322.md)。

鸭哥每日手记

日更的深度AI新闻和分析