
【摘要】人工智能技术为传媒产业发展带来机遇,也使得作为核心资产的报业版权面临前所未有的挑战。本文旨在厘清人工智能时代报业版权保护的边界与困境。人工智能从根本上模糊了“使用”、“创作”与“归属”三大核心边界。同时,报业面临着内部版权管理缺失与外部“举证难、司法实践难、赔偿标准低”及法律滞后等困境。面对挑战,报业应摒弃被动维权思维,通过夯实内部管理与推动外部多方协作,探索人工智能时代报业版权保护的未来发展之路。
人工智能的快速发展为传媒产业提供了新的机遇,构建与大模型技术共生的新逻辑体系是传媒产业未来发展导向。在这一背景下,传统报业的内容版权成为其核心资产和收入增长点。AIGC等新兴技术参与度的提升,不仅为报业内容生产与传播带来颠覆性影响,也给报业版权保护带来前所未有的挑战。厘清报业版权保护边界是人工智能时代报业版权保护的核心问题,也是报业寻求主动发展的关键一步。
人工智能时代报业版权保护边界
人工智能技术作为高效的生产工具广泛嵌入报业内容生产流程,从根本上模糊了著作权法中“使用”、“创作”与“归属”这三大核心的边界,导致人工智能在合理使用、法律属性及权利归属三方面存在争议,迫使报业重新审视并厘清版权保护边界。
1.合理使用边界
大型语言模型(LLMs)的开发需要海量的高质量文本数据进行“投喂”和训练。在此阶段,科技公司通常会借助爬虫技术构建规模惊人的数据集。其中,新闻机构历经数十年积累、投入巨大成本创作的新闻报道、评论和深度调查等,是无可比拟的优质语料库。2023年12月27日,纽约时报在美国纽约南区联邦地方法院提起诉讼,指控OpenAI非法使用数百万篇纽约时报文章训练包括ChatGPT在内的AI模型,OpenAI则回应称其模型训练“遵循合理使用”。2025年8月10日,日本三大新闻巨头联合起诉美国AI公司Perplexity,指控其未经许可使用版权材料,引起广泛关注。由此可见,AI模型在训练阶段对新闻机构版权内容的使用是否可纳入“合理使用”范畴,已成为报业版权保护的核心争议之一。
通常认为,著作权法上的“合理使用”意味着可以在未获著作权人授权且不付费的情况下对作品进行使用。从相关案例来看,科技公司常以“合理使用”作为抗辩理由,但AI训练是否属于“合理使用”,尤其是其训练结果具有商业性质时,在法律上存在巨大争议。美国版权法第107条为“合理使用”的范围规定了4条标准,即使用的目的与性质、使用是否具有商业性质;被使用版权作品的性质;所用部分同整体相比的数量与内容的实质性;使用行为对作品潜在市场或作品价值产生的影响。
第一条标准是判断“合理使用”的核心。一方面,训练AI模型的行为具有高度的“转换性”,即“转换性使用”(TransformativeUse)。其目的并非为了重复作品原有的审美和信息功能,或者简单地替代原作品,而是通过添加新的表达、含义、信息或视角,用以构建一个全新的、具有生成能力的工具。在2015年,美国作家协会(AuthorsGuild)针对谷歌在未经授权的情况下从公共图书馆和大学图书馆扫描数百万本图书并收录到其搜索引擎上使用的行为提起诉讼。谷歌则认为,谷歌数字图书馆只是给读者提供一种新的方法来找到自己感兴趣的书,且用户只能看到书籍的部分内容而非全部。最终,美法院认定谷歌图书馆对原作品的使用属于“合理使用”,不构成侵权。今年6月,美国加利福尼亚州北区联邦地区法院对出版商诉美国旧金山人工智能公司Anthropic一案作出裁决,在部分支持Anthropic的基础上,认为其使用受版权保护的作品训练大语言模型并非直接复印原作,或对原作品的性质与目的作出实质性改变,属于“具有典型转换性”的合理使用行为。正如美国司法实践所强调的,使用的转换性越强,商业性等不利因素的重要性就越弱。从这个角度看,AI训练似乎与两案中被告的行为有相似之处,属于合乎标准的“转换性使用”。但另一方面,当前主导AI研发的多为大型商业公司,其最终目的无疑是获利。这种显著的商业性,又构成了适用“合理使用”的天然障碍。欧盟在其《单一数字市场版权指令》中,就明确区分了商业性与非商业性主体的文本和数据挖掘(TDM)行为,并对前者施加了更严格的限制。因此,仅凭主体及其使用目的这一标准极易压缩“合理使用”的适用空间,使得评判陷入两难境地。
第三条标准通常要求对他人作品进行“少量或者部分使用”。然而,生成式人工智能的运作逻辑恰恰相反,只有通过对海量数据的全面学习才能保证生成结果的准确性与多样性,且AI模型训练需要复制并分析作品的全文,而非片段。这种从“质”到“量”都堪称“海量”的使用方式,彻底颠覆了合理使用制度关于使用限度的限制。在这一框架下,AI对报业语料数据库的整体复制行为,几乎注定无法通过此项检验。
在司法实践中,第四条标准通常被视为最重要的考量因素。相关案件中,AI开发者辩称,训练行为本身不构成对作品的消费,不会影响用户为阅读新闻而付费的意愿,因此不产生市场替代。但这一论点忽视了AI在输出端对市场的潜在冲击。用户可以直接向AI聊天机器人或AI驱动的搜索引擎提问,AI会整合从包括新闻在内的各种来源中学到的信息,生成一个直接、简洁的答案或者摘要。用户得到了答案,就不再需要点击链接访问原始新闻网站。这构成了对其核心产品的直接替代,剥夺了本应流向新闻网站的流量和订阅收入。例如,纽约时报诉OpenAI案中,原告指出,ChatGPT可以直接生成新闻摘要甚至全文,满足了用户的信息需求,从而替代了用户访问其官网或订阅服务的需要,且AI有时会捏造信息并错误地归属于纽约时报(即“幻觉”),损害了其新闻品牌长久建立的公信力。这种实质性的市场替代效果和对作品价值的损害,正是版权法所要极力避免的。综上所述,将生成式人工智能的数据训练行为强行纳入传统的“合理使用”框架,会发现其在多个核心要素上均存在难以调和的矛盾。
2.内容创作边界
AI生成内容是否构成作品?AI是否可作为“作者”?这是当前司法实践的核心争议。
目前,大多数新闻从业者将AI用于信息收集、数据整理、外文翻译、事实核查或是会议录音转文字等重复性和标准化工作。这种应用极大提升了工作效率,将新闻从业者从繁琐的事务性劳动中解放出来,从而专注于更高价值的创作活动。在此阶段,AI的产出物是“素材”而非“作品”,版权边界十分明确,最终的版权归属于整合、分析这些素材并完成报道的新闻从业者。同时,考虑到专业规范、自身主体性、“AI幻觉”风险和管理模式等,新闻从业者通常避免使用AI直接生成新闻稿件。这种AI在实践层面的有限嵌入和审慎态度反映了报业在版权创作边界上的本能感知,即简单、机械地调用AI生成的内容,很可能无法被视为具有版权的创作行为。但这也带来了新的模糊地带:如果记者和编辑通过反复调试、修改提示词,深度介入AI的生成过程,其最终产物是否拥有版权?边界究竟在哪里?
著作权法保护的是思想的“表达”,而非思想本身,且这种表达必须来源于人类的、具有独创性的智力活动。目前法律普遍不承认AI为著作权主体,其生成内容通常被视为工具输出,而非独立创作。若AI生成内容完全基于算法和数据,缺乏人类创造性投入,则可能不被视为著作权法意义上的“作品”。目前学界对于AI生成内容是否构成作品的讨论主要集中在“智力贡献论”上。“智力贡献论”认为,应从最终生成物中找寻并分离出“人类贡献”。借鉴实用艺术品版权认定的“概念性分离测试”,可以构建一个认定框架:将人类在AIGC内容生成过程中的所有创作决策(如构思、提示词设计、参数调整、结果筛选与修改)视为一个“虚拟创作计划”,判断这个计划所指向的“创造性表达”是否构成了最终生成内容中的“实质性部分”。例如,如果用户输入的仅仅是“写一篇关于XX的报道”这种宽泛的要求,而大部分具体表达由AI填充,那么人类的智力贡献微乎其微,生成内容不构成作品。反之,如果用户提供了极为详尽的场景描述、人物设定、情节走向、修辞风格等,AI的生成更像是对一个详细蓝图的“渲染”,那么人类的智力贡献就可能达到独创性高度。
具体到报业,只有当记者的智力活动超越了简单的思想提供,深入到对表达形式的构思、设计与控制,并能通过创作记录加以证明时,内容才具备版权意义。若记者或编辑对AI生成内容进行实质性修改、筛选、编排、润色,则该内容可被视为“人机合作作品”,版权归人类创作者或新闻机构所有。若AI仅提供初稿或素材,人类进行深度加工,则人类贡献部分受版权保护。
3.权利归属边界
AI内容生成过程中,用户(输入提示词)、AI模型开发者(设计算法和训练模型)、AI本身(根据算法生成)都参与了内容产出。一旦发生版权纠纷,AI的责任主体应该如何确定?
在现行法律框架下,AI本身不具备法律主体资格,它不能独立成为承担责任的主体。而新闻机构作为新闻内容的最终发布者和受益者,通常是版权纠纷中的第一责任人。除非有特殊约定,新闻机构直接面向版权人承担侵权责任,包括停止侵权、赔礼道歉、赔偿损失等。记者或编辑是AI工具的具体使用者和操作者,如果侵权行为发生,从行为上看,记者是生成侵权内容的操作者,理论上可以被视为直接侵权人之一。在实践中,由于存在劳动雇佣关系,记者个人的外部法律责任通常会被其所属的新闻机构所承担。但值得注意的是,AI技术提供方的责任是间接的、潜在的,且在法律上仍在激烈博弈中。AI开发商和技术公司作为服务提供者,不能简单套用传统“通知—删除”的避风港原则,他们承担着更强的“合理注意义务”(如内容标识、处置违法内容等)。其责任主要集中在训练数据的合法性和是否“知道或应当知道”其提供的服务被用于侵权行为。国家网信办等四部门联合发布的《人工智能生成合成内容标识办法》规定,平台在服务提供者的内容上架或上线时要进行审核,核验生成合成内容标识,对未标识或疑似生成内容要添加风险提示,避免公众混淆。但直接将其列为某一篇具体新闻报道侵权的共同责任人,在目前的司法实践中难度较大。
综上所述,在司法实践中,版权人最有可能将新闻机构列为被告。法律责任的边界不再仅仅依赖于“谁直接导致了侵权结果”,而是转向在“基础模型开发—系统集成—服务应用”这条价值链的各个环节中,谁没有尽到其应尽的注意义务。这意味着报业在维权时,其举证和诉讼策略发生转变。新闻机构不必费力证明AI模型内部的复杂算法逻辑,而是通过与技术提供方的服务协议(通常包含责任限制和免责条款)以及内部管理规定,明确版权归属。
人工智能时代报业版权保护困境
在AI技术带来的全方位变革下,报业版权保护面临着行业内外的双重困境。
1.行业内部困境
报业版权保护的困境源于其内部根深蒂固的观念问题,这些问题在AI时代非但没有消解,反而被进一步放大,并衍生出新的风险。
长期以来,报业单位将作品被商业网站转载视为扩大自身影响力的体现,而非资产的流失,这种惯性导致了版权保护意识薄弱。一方面,从业人员对自身作品的版权价值认识不足,缺乏主动维权的动力;另一方面,在日常采编工作中,也容易因忽视版权风险而“另辟捷径”,随意转发其他平台的热点内容或使用权属不清的图片、视频,使自身从“维权者”沦为“侵权者”。AI的出现加剧了这一问题,从业者为追求效率,不当使用AI生成的内容,存在潜在的版权风控隐患。
有效的版权保护始于清晰的权利归属。一些报业单位并未建立完善的内部版权管理体系,缺乏专门的版权管理部门或专业人员,导致版权工作无章可循,同样的侵权风险反复出现。同时,新闻职务作品的权属不明确,报业单位未与AI技术提供方通过合同明确版权归属,也是带来版权风险的原因之一。
2.行业外部困境
报业版权维权的外部困境,集中体现为长期存在的“三难”问题。
首先是侵权举证难。在人工智能背景下,举证难度呈指数级增长。由于AI的“黑箱”特性,报业极难证明某一AI模型是否使用了自己的版权内容进行训练,也难以量化其具体价值。
其次是司法实践难。与传统的侵权行为相比,AI的侵权行为成本更低,所涉及的原作数量更加庞大。而法院往往要求对多篇侵权作品分案审理,导致诉讼成本不断升高,使得大规模维权在实践中几无可能。
最后是赔偿标准低。即便官司打赢,法院判决的赔偿金额往往难以覆盖维权支出成本,形成“赢了官司输了钱”的尴尬局面。这种低回报、高投入的现状,不仅无法形成有效震慑,也严重削弱了报业维权的积极性。
除此之外,关于AI的使用仍然缺乏行业共识与标准。在人工智能时代,法律体系必须具备快速应变能力,跟上技术环境的持续演变。但现实是,现有法律规范更新常常落后于技术实践,这一滞后性使其在面对新技术催生的新型侵权手法时,往往难以作出有效回应与约束。尤其是AI生成作品在著作权属、合理使用界限、侵权赔偿标准等方面,依然存在着标准模糊、适用局限性等问题。
报业版权保护的未来发展
对报业版权保护而言,人工智能技术既带来了严峻的挑战,也带来了前所未有的机遇。面对传统维权困境与AIGC带来的新问题,报业必须摒弃被动思维,应主动运营自身版权,在内部管理方面,强化版权意识,建立专门的管理体系;通过劳动合同、补充协议等方式明确权属,夯实维权基础;规范内容生产,防范自身侵权风险;探索多元化版权运营模式,与互联网平台签订版权许可协议,实现内容合规授权,变维权为创收;积极拥抱新技术,加强侵权监测与取证,提高维权效率。与此同时,向外寻求多方协作,推动行业合作与标准建立,积极向立法和司法机关建言,推动提高法定赔偿标准、明确AI相关法律问题等;与技术平台从对立走向合作,明确责任,实现内容传播与版权收益的双赢。如此,报业不仅能够守护自身的知识产权,更有望在人工智能时代开辟新的价值蓝海,实现自身高质量发展。
(作者单位:重庆师范大学新闻与传媒学院)
本文刊发于《中国报业》2025年10月(上)刊
责任编辑:张晓燕
| 传媒频道







京公网安备 11010502035903号