13910160652
010-52852558
| |EN
首页 > 知产速递 > 综合
  • 13910160652
  • ciplawyer@163.com

WIPO发布《生成式人工智能:知识产权导航》

日期:2024-03-13 来源: 中国科学院知识产权信息 作者: 浏览量:
字号:

【摘要】2024年2月28日,世界知识产权局(WIPO)发布《生成式人工智能:知识产权导航》(Generative AI: Navigating Intellectual Property),旨在帮助采用生成式人工智能(Generative AI,简称GenAI)工具的组织了解知识产权风险及对策。报告中,WIPO不仅制定了指导原则和清单,还帮助企业了解知识产权风险,提出正确的问题,并考虑潜在的保障措施。


许多企业和组织正在迅速采用生成式人工智能工具。这些工具既是协助企业运营的巨大机遇,也因当前的不确定性(包括知识产权问题)而带来了巨大的法律风险。企业和组织应考虑实施适当的政策,为员工提供有关技术机遇和限制的培训,这种积极主动的方法对于应对与使用生成式人工智能相关的挑战至关重要。


1.知识产权风险


(1)机密信息


机密信息是指非公开信息,不以具有商业价值为限。商业秘密是其中一种类型。商业秘密是一种具有(潜在)经济价值或因其秘密性而提供竞争优势的机密信息,如果这些信息被用于训练或提示AI工具,使用GenAI工具的企业和组织可能会无意中泄露商业机密或放弃商业敏感信息的保密。企业应考虑采取技术、法律和实际保障措施相结合的方式来防止这种情况发生。


风险:


①GenAI工具可根据用户的提示进行保存和训练,如果用户在提示中包含机密信息,由于AI供应商拥有该信息的副本,机密性可能会丧失,此外,该信息还可能成为模型的一部分,与其他用户公开共享输出结果;


②企业和组织从头开始训练GenAI工具或使用其机密信息对现有工具进行微调时,信息存在被公众获取的风险;


③黑客可能会利用“提示词注入”(Prompt Injection)等技术提取包括机密信息的训练数据;


④私人GenAI工具的提供者可以监控和存储提示信息,以检查是否有不当使用的情况,有时可能会由提供商的员工进行审查。


对策:


①检查GenAI工具的设置,尽量降低提供商使用用户的提示信息进行存储或训练的风险;


②使用在私有云上运行和存储的GenAI工具;


③检查AI工具提供商是否会存储、监控和审查用户的提示信息,就任何机密信息向提供商寻求适当的保护;


④限制使用机密信息的GenAI工具的访问权限;


⑤制定员工保密政策,并就提示中包含机密信息的风险进行培训;


⑥考虑让信息安全专家审查和监控GenAI工具。


(2)知识产权侵权


许多GenAI工具的训练数据源于受知识产权保护的作品。现行司法实践对于AI工具的训练、使用和输出是否构成知识产权侵权尚存争议。这些案件主要集中在版权和商标领域,但是否还会涉及其他知识产权类型,如工业品外观设计、数据库和发明专利,在法律上存在很大的不确定性,并可能因司法管辖区而异。企业和组织应考虑通过使用符合知识产权要求的工具,尽可能寻求赔偿、审查数据集以及检查技术和实际措施来减少侵权的可能性,从而降低风险。


风险:


①世界各地都有未决诉讼,待确定使用受知识产权保护的作品训练AI、或使用这些训练好的AI模型及其生成物是否构成知识产权侵权;


②这种风险不仅限于AI开发者,还可能延伸到GenAI的使用者,各种形式知识产权侵权(如复制版权作品)的责任并不取决于被控侵权者的意图或是否知情;


③法院尚未解决GenAI开发商、提供商、客户和用户是否需要为知识产权侵权、支付赔偿金和销毁侵权模型或生成物承担责任的问题;


④关于潜在的版权侵权,一些国家的知识产权法包括可能适用于GenAI的例外情况,如合理使用、文本和数据挖掘以及临时复制,然而,各国之间缺乏协调,且这些例外情况对GenAI的适用性尚不明确;


⑤即使在法院作出过判决的情况下,也可能取决于案件的具体情况以及国家法律的规定。


对策:


①考虑使用只在已获授权、公共领域或用户自有训练数据的GenAI工具;


②在选择AI工具时,考虑是否有提供商愿意就知识产权侵权(特别是版权侵权问题)提供赔偿,并评估赔偿的范围和适用性,例如,保护可能仅限于第三方赔偿,并以遵守合同限制和实施风险缓解措施为条件;


③在训练或微调GenAI时,彻底审查数据集,核实知识产权所有权、AI训练的许可范围,以及是否符合知识产权共享许可(Creative Commons Licenses)或属于公共领域(Public Domain Status),确保了解目标管辖区适用的版权例外情况;


④注意监管机构正在考虑规定披露用于训练模型的知识产权保护的具体义务,考虑记录详细信息以记录AI模型的训练过程;


⑤制定员工政策和培训,最大限度地降低产生侵权输出的风险,建议避免在提示中提及第三方企业名称、商标、版权作品或特定作者或艺术家;


⑥考虑在使用生成物之前,检查侵权情况,这些措施可能包括剽窃检测抄袭、图像搜索和自由实施尽职调查(Freedom to Operate,FTO);


⑦根据具体情况评估缓解措施、相关成本和业务风险。


(3)开源义务


由AI生成的代码可能需要履行开源义务,当某一软件应用程序或代码是开源时,意味着源代码对公众开放,用户通常被授予使用、修改和分发软件的权利和自由。然而,这些权利和自由也伴随着用户必须遵守的义务(如署名),这些义务因管理软件的特定开源许可而异。企业和组织应该考虑其代码是否存在上述风险,调查潜在的赔偿保护,并制定技术和实际措施。


风险:


①GenAI可能是基于受开源要求约束的代码进行训练,潜在地违反了商业使用或署名等义务限制,这方面的法律纠纷在美国一直存在;


②一些开源许可规定,任何包含开源代码的代码都必须遵守相同开源许可的要求,因此,集成AI生成代码的用户可能会无意中将开源义务引入其项目。


对策:


①考虑从专门基于许可示例进行训练或实施技术保障的供应商处获取GenAI工具;


②考虑从提供开源侵权的赔偿保护的供应商处采购GenAI工具,并检查适用的保护范围和条件;


③在训练或微调GenAI工具时,彻底审查训练数据,确保其具有足够宽松的许可范围;


④在编码中使用GenAI时,采取风险与效益相结合的方法,如果确保代码免于承担开源义务至关重要,则应考虑禁止供应商和员工在这些项目中使用GenAI。


(4)深度伪造:肖像权和声音权


各国均保护肖像和声音,但保护形式不统一,包括知识产权(如普通法国家的假冒行为)、不正当竞争、人权、宪法等。GenAI有可能模仿特定主体的肖像或声音,甚至存在以此目的的专门设计。企业和组织应考虑与此类功能相关的风险。


风险:


①未经授权使用或模仿他人的声音或肖像可能会导致侵犯知识产权或其他权利;


②模仿肖像和声音还可能面临名誉损害或法律诉讼的风险,如欺诈或诽谤。许多国家正在考虑针对深度伪造制定具体的法律法规。例如,中国已经通过了适用于“深度合成”的法规。


对策


①制定员工政策并提供培训,明确限制使用“深度伪造”GenAI工具,对于已获批准的GenAI工具,禁止在提示中提及特定个人的政策;


②在确实存在合法商业理由需合成某人的声音或形象时,应从当事人处获得必要的同意和许可。


(5)人工智能生成物的知识产权和所有权


人工智能生成物的知识产权性质和权利归属尚不明确。企业和组织应在合同中明确所有权。


风险:


大多数国家的知识产权法制定时并未考虑GenAI,这导致了关于AI生成物是否可以拥有知识产权以及其权利归属存在不确定性。最近,将AI系统“DABUS”命名为发明人的专利申请,因为没有确定人类发明人被一些国家驳回。相关进展包括:美国版权局已发布指南,关于申请包含由AI生成的材料的作品,指出必须有人类的创造性贡献;北京互联网法院最近判决认为,用户拥有AI生成图像的版权,因为他调整了提示和参数,使图像反映了他的审美选择和判断。少数国家(如印度、爱尔兰、新西兰、南非和英国)为“由计算机生成的作品”提供版权保护,无需人类作者,乌克兰对计算机程序生成的“非原创对象”规定了相关权利。


对策:


①审查GenAI工具的条款和条件,以了解知识产权权利归属;


②探索如何通过品牌名称和标识等知识产权元素或通过人类创造力参与、修改,来加强对AI生成物的控制或权利所有,记录人类在发明或创造过程中的作用;


③在可能的情况下,建议不同国家就计算机生成作品的版权归属标准达成一致;


④在委托创作时,考虑要求保证不使用GenAI;


⑤考虑在不需要知识产权的情况下使用GenAI技术,如内部使用、创意生成和短暂使用。


2. 建议措施


企业和组织可以采取许多措施,促进负责任地、合法合规地使用生成式人工智能,以下清单可能会对那些希望采取负责任的做法并驾驭这一快速发展领域的企业和组织有所帮助。


(1)员工政策和培训


实施员工政策和培训,以指导生成式人工智能的得当使用,并鼓励进行负责任的尝试,包括:


①了解与生成式人工智能相关的机遇、风险和局限性。


②避免在提示中使用机密信息。


③只允许有权限的员工使用基于商业秘密数据训练的GenAI。


④避免在提示中使用第三方知识产权,以尽量减少侵权输出的风险。


⑤避免使用“深度伪造”的生成式人工智能工具。


(2)风险监测和风险管理


①监测判例法和法规的变化。


②根据不断变化的风险与法院判决定期评估和更新政策。


③向企业明确传达法律风险,以便根据企业的风险偏好采取相应措施。


④制定一份人工智能工具清单,并依风险情况进行分类,如:所有员工均可使用的工具、使用机密信息的受限工具以及禁止使用的工具。


(3)记录留存


①记录人工智能工具的训练过程。


②要求员工标记人工智能的输出结果,并保留提示记录。


③记录人类在创作过程中的作用。


(4)人工智能工具评估


①审查外部采购工具(包括使用内部数据训练的工具)的条款、条件及设置,以便:了解供应商是否存储提示;了解这些工具的训练数据来源;寻找使用许可数据或公共领域数据训练的工具,或具有不使用受保护数据的技术监管措施的工具;确定提供商是否提供知识产权侵权赔偿及其适用条件。


②由信息安全专家审查和监控GenAI工具。


③为增强控制和保障,探索存储在本地或私有云中的私有GenAI工具,向提供商寻求对机密信息的适当保护和保障。


(5)数据评估


审查人工智能的训练数据集及其知识产权和许可范围。


(6)人工智能生成物


①审查提供商关于AI生成物的知识产权和所有权条款。


②使用AI生成物前,检查其是否侵犯知识产权。


③将人类的投入和创造力与AI输出结果相结合,以保持对生成物所有权的控制。


④创建关于生成物所有权的协议。


⑤记录人类在创作过程中的作用。


⑥获得合成某人声音或肖像的必要同意和许可。