13910160652
010-52852558
| |EN
首页 > 互联网 > 人工智能
  • 13910160652
  • ciplawyer@163.com

通用人工智能创新发展带来的风险挑战及其法治应对

日期:2023-09-13 来源:知识产权杂志 作者:陈兵 浏览量:
字号:

内容提要


以ChatGPT大规模模型训练为代表的通用人工智能产业在创新发展过程中对社会秩序造成了一定冲击,存在来自科技伦理、侵权归责、知识产权垄断、数据安全、算法操控等多方面风险挑战,人工智能发展面临信任危机。基于此,应重视通用人工智能产业治理,以《生成式人工智能服务管理暂行办法》的施行为契机,建立健全生成式人工智能服务的相关行为规范和伦理指南,用系统观念和法治方法来推动通用人工智能技术和产业在我国规范健康持续发展,促进其在“安全、可控、可解释、可问责”的基本标准下创新发展。以问题为导向,以目标为牵引,在法治框架下尽快建立健全该领域科技伦理监督管理规范,不断完善相应的侵权责任规范体系,统筹公平竞争与鼓励创新双重价值,加强和改进人工智能领域数据安全保障制度,重视和强化算法监管,实现多领域、多主体、多制度、多工具的协同联动治理。


关 键 词


通用人工智能 生成式人工智能 法治


一、背景与问题


全球正处在新一轮科技革命和产业变革的历史交汇期,继工业化、信息化之后,智能化已经成为时代强音。在国家数字经济的政策推动与垂直行业高质量发展的需求带动之下,人工智能技术和产业一直保持着高速发展态势。随着技术创新的日趋活跃与产业融合的不断深化,生成式人工智能技术带动各类应用百花齐放,智能自动化、推荐、搜索、决策等技术也已与企业运营、社会服务等方面深度融合,带来了巨大的经济和社会效益,在优化产业结构、增强经济韧性、实现经济从高速增长转向高质量发展等方面的重要性越来越突出。


一般而言,人工智能指基于一定信息内容的投入实现自主学习、决策和执行的算法或者机器,其发展建立在计算机处理能力提高、算法改进以及数据量指数级增长的基础之上。自1956年美国达特茅斯讨论会上,约翰·麦卡锡(John McCarthy)首次提出人工智能概念以来,人工智能的发展并不总是一帆风顺,其在经历了由机器学习、神经网络、互联网技术驱动的三次繁荣发展期的同时,也遭遇了计算机算力不足、推理模型陷入瓶颈的两次低谷期。半个多世纪来,人工智能从以知识驱动,到以数据驱动,现发展到以安全可控为核心的阶段。随着人工智能应用的深入和近期GPT-4等技术的爆火,新一轮生成式人工智能(AIGC)热潮应运而生,也让人们看到通用人工智能的能力水平,然而在使用过程中,其自身的技术缺陷以及其带来的算法黑箱、决策偏见、隐私泄露、数据滥用等问题引发了信任危机。


党的二十大报告指出,要“完善科技创新体系”“加快实施创新驱动发展战略”“坚持创新在我国现代化建设全局中的核心地位”“加强知识产权法治保障,形成支持全面创新的基础制度”。然而科技创新不只是包含高歌猛进的辉煌成就,通用人工智能是一把双刃剑,其作为高度智慧化的人工智能形态,带给人类社会的便捷与风险同在,技术应用引发的信任危机不利于人工智能的进一步创新和发展。习近平总书记在主持十九届中央政治局第九次集体学习时明确指出:“要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控。”因此,我国在大力发展人工智能的同时,必须高度重视其带来的安全挑战,明确安全治理目标,综合运用包括法规政策、标准规范、技术支撑在内的多项治理措施,实施敏捷治理模式,有效提高我国人工智能安全治理能力,确保人工智能安全健康发展。


为此,亟需有效审视现有法治与人工智能技术创新发展之间的适应性。国家互联网信息办公室等七部门联合公布的《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》)于2023年8月15日起正式施行。从《生成式人工智能服务管理办法(征求意见稿)》(以下简称《征求意见稿》)到《暂行办法》正式出台仅3个月时间,其速度之快体现出我国对支持和规范人工智能技术和产业发展的积极态度与重视程度。然而,《暂行办法》主要聚焦于事前规制,或者说是预防性监管,对生成式人工智能服务产生不当内容后如何解决,并未提供有效办法。这在一定程度上说明,《暂行办法》更聚焦于发展目标,很多监管要求和责任都是在现有法律法规基础上的场景化,即通过立法衔接和对照来规范生成式人工智能发展中的具体问题,而对生成式人工智能产品和服务本身引发的责任还需要明确和细化。譬如,《征求意见稿》第15条曾提出“对于运行中发现、用户举报的不符合本办法要求的生成内容,除采取内容过滤等措施外,应在3个月内通过模型优化训练等方式防止再次生成”。这一条在内容上是对事后规制缺失的补足,但是基于需要判断的内容过于复杂、“3个月”是否为恰当整改期限难以确定等因素,该条最终并未写入《暂行办法》。事后如何进行规制需要制度在实际运行一段时间后再予以补充或者另行规定,抑或是利用现有法律体系来应对生成式人工智能服务法律责任的认定与承担。


鉴于此,现阶段应对通用人工智能创新发展挑战的关键在于提供一种兼顾伦理、技术和法律的治理框架,既要尊重科技发展的规律,又要符合科技伦理和法律治理的要求与逻辑。然而,从理论研究和实践现况来看,目前对于通用人工智能治理的研究和实践尚缺乏针对性、系统性、整体性及长远性。亟待以系统科学的法治方法来保障和推动技术突破与高水平竞争间的良性循环,实现技术创新、产业创新、制度创新、文化创新的融合,推动通用人工智能的创新发展建设。对此,本文结合生成式人工智能这一代表性产品和服务所引发的问题,从个性入手探索因应通用人工智能创新发展的法治挑战,从以安全为底线的可解释性、可控性、可问责性等要求出发,讨论生成式人工智能服务模型训练中的数据、算法、算力等要素支持,扩展至对促进通用人工智能创新发展的法治保障问题探讨,并在此基础上提出未来促进通用人工智能创新发展的法治方案,以期丰富该领域的理论研究。


二、通用人工智能创新发展的基本价值要求


人工智能主要分为专用人工智能和通用人工智能。通用人工智能的概念诞生于1967年,但在ChatGPT和GPT-4等横空出世之前并未真正引起足够的重视。专用人工智能,又称为“狭义人工智能”“弱人工智能”,指被编程来执行单一任务的人工智能,从特定的数据集中提取信息,因此无法在设计任务之外的场景下运行。专用人工智能有着明显的特点,即功能性强,而互通性差。但随着GPT-4大模型的出现,其展现出的强大自然语言处理能力,为通用人工智能“大数据模型+多场景”的实现开辟了新空间。


通用人工智能(AGI)又称“强人工智能”“完全人工智能”“深度人工智能”,是具有一般人类智慧,可以像人类一样拥有智能、学习、推理、解决问题和适应新环境的人工智能系统,其能够在不特别编码知识与应用区域的情况下,对多种甚至泛化问题予以解决的人工智能技术。若其能够克服诸如数据获取、算法设计、计算性能、伦理和法律等多种难题,则可以为解决许多领域的关键问题提供极大帮助,例如医疗和健康、环境保护、教育、金融和安全等领域。


虽然迄今为止还没有出现完全达到通用人工智能水平的技术产品,但是有学者认为部分生成式人工智能已初步达到通用人工智能的水平。GPT-3.5所带来的安全问题已经引起人们广泛重视,由此可知,若出现真正能够达到通用人工智能标准的技术产品,其所带来的安全新问题更不容忽视。基于自主智能、数据依赖性、“算法黑箱”和“难以解释”等特征,它在技术内生、应用衍生、数据安全和隐私保护等方面将面临严峻的安全和伦理挑战,并极可能在国家安全、社会伦理和个人生命财产安全等方面产生更加严重的后果和更加广泛的影响。因此,如何确保通用人工智能创新发展对人类社会有益而无害,是人类目前需要面对的巨大挑战,对人工智能治理的研究迫在眉睫。


(一)可信:通用人工智能创新发展的价值底线


可信是现阶段通用人工智能创新发展需要遵循的首要原则或“帝王条款”,是人工智能治理政策制定的重点遵循。随着生成式人工智能服务的出现和人工智能信任危机的发酵,普通用户从消费者的角度出发,对人工智能产品的态度愈发谨慎;学者从技术研究的角度出发,对人工智能模型的自身缺陷所可能引发的现实应用后果产生担忧;而企业从经营的角度出发,不得不面对通用人工智能赋能数字经济时所要解决的用户信任、技术隐患及同行竞争等问题。


在此背景下,构筑可信人工智能体系已成全球共识。为了提高人工智能的可信性,欧盟曾于2019年8月正式发布了《可信赖人工智能道德准则》(Ethics Guidelines for Trustworthy AI)。该准则概括性地提出了实现可信人工智能全生命周期的框架,并提出了7个可信人工智能的关键要素,即人的治理(人的监督),技术强大性和安全性,隐私和数据治理,透明度,多样性、非歧视性和公平性,社会和环境福祉,以及问责。


2019年2月,美国国家科技政策办公室发布了时任总统签署的《美国人工智能倡议》(American AI Initiative)。该倡议将可信人工智能定义为具有“准确性、可解释性、隐私性、可靠性、稳健性、安全性”等特征的人工智能。经济合作与发展组织(OECD)发布的《确定OECD的人工智能发展原则》将可信人工智能的特征定义为:尊重人权和民主价值观,为包容性增长制定标准,以人为本的价值观和公平性,透明度和可解释性,稳健性、安全性,以及问责制。


在我国,中国工程院院士何积丰于2017年11月在香山科学会议上首次提出了“可信人工智能”的概念;同年12月,工业和信息化部发布了《促进新一代人工智能产业发展三年行动计划(2018—2020年)》。2019年6月,我国新一代人工智能治理专业委员会发布的《新一代人工智能治理原则——发展负责任的人工智能》提出了人工智能治理的框架和行动指南。2020年6月,蚂蚁集团在全球人工智能大会上首次公布了可信人工智能技术架构体系;2021年7月,京东探索研究院与中国信息通信研究院联合在世界人工智能大会上发布了中国首个《可信人工智能白皮书》。两家企业都将隐私保护、稳定性、可解释性、公平性作为可信人工智能的四大基本原则。


综上,尽管国际各界对可信人工智能的具体定义略有不同,但其核心的原则都包括了稳定性、可解释性、隐私保护和公平性等基本技术原则。稳定性、可解释性、公平性和隐私保护构成了可信人工智能的基础。其中,稳定性指人工智能可以在存在各类环境噪声以及恶意攻击的情况下作出正确决策的能力,可解释性是指人工智能作出的决策需要让人能够理解,隐私保护指人工智能系统保护个人或群体隐私不被泄露的能力,公平性指人工智能系统需要包容人的个体差异,公平对待不同群体。


(二)以人为本:通用人工智能创新发展的价值导向


通用人工智能创新发展的安全底线,主要包含人、技术、信任三个要素。其中技术是支撑通用人工智能产业蓬勃兴起和行稳致远的基石,信任是促进通用人工智能行业规范持续健康发展的支柱,人是可信人工智能法律政策的核心保护对象,以人为本是通用人工智能创新发展的基本遵循。实际上,信任问题并不完全取决于人工智能开发与应用的底层逻辑,还取决于法律对人工智能技术的理解与掌控程度。对通用人工智能除了呼吁技术发展以人为本,更需要从人工智能技术本身出发,强调提升人工智能算法与模型的可解释性。所以,从以人为本的角度看,有意愿去推动通用人工智能的安全发展,只是解决用户信任问题的第一步。问题的关键,还是在于能否从法律规范层面实现人工智能的可信性,促进其以人为本。


放眼全球,在各国的人工智能政策中,都强调了以人为本这一基本原则。2018年5月,具有史上最严格隐私和数据保护法之称的欧盟《通用数据保护条例》(以下简称GDPR)正式生效。此后法国数据保护当局(CNIL)以违反GDPR为由,对谷歌处以创纪录的5000万欧元罚款,为应用人工智能等技术赋能经济的全球企业打响了警告枪。


近年来,我国为促进通用人工智能践行以人为本已经进行了诸多路径的法律探索和实践。立法方面,上海市曾于2021年12月、2022年9月和2022年11月先后发布《上海市智能网联汽车测试与应用管理办法》《上海市促进人工智能产业发展条例》和《上海市浦东新区促进无驾驶人智能网联汽车创新应用规定》,强调人工智能算法可信、伦理道德、治理与监管等方面,并针对智能网联汽车领域技术标准、数据安全与个人信息保护作了详细规定。


此外,《上海市促进人工智能产业发展条例》明确,上海市人民政府设立“上海市人工智能战略咨询专家委员会”,其职能在于能够为人工智能发展中的重大战略、重大决策提供咨询意见,同时设立“人工智能伦理专家委员会”,负责制定伦理规范指南、推动参与国内外人工智能领域伦理重大问题研讨和规范制定。


2021年7月,上海市经济和信息化委员会、上海市市场监督管理局印发《关于推进本市新一代人工智能标准体系建设的指导意见》(以下简称《意见》)。测试评估方面,《意见》围绕智能网联汽车、医疗影像辅助诊断、视觉图像身份识别、智能传感器等赛道,加快构建完善可信人工智能评测体系,同时针对测试评估建立共性标准;安全伦理方面,《意见》提出加强安全伦理标准对人工智能发展的引导和规范,提升安全保障能力,建立积极的治理规则,从安全与隐私保护规范和应用场景安全规范两大模块强化标准研制,并建立安全风险等级体系。


随着社会认知的深入,保障通用人工智能创新发展的参与主体将进一步丰富,产业链多主体、多要素协调互动。依据《网络安全法》《数据安全法》《个人信息保护法》等法律法规框架,深圳、上海、北京等地加快推动人工智能立法,建立公共场所人工智能分级分类应用规范,形成具有地方特色的人工智能治理体系。行业协会、联盟和研究机构发挥积极作用,联合行业企业围绕先行领域制定和发布行业标准,在安全性、可靠性等领域已经取得了一些成果可为通用人工智能朝着以人为本的方向发展提供参考。“人脸识别第一案”等具体案件引发了广泛的社会关注,人民群众对人工智能的了解和需求增加,参与程度大幅提升,从需求层面倒逼通用人工智能朝着以人为本的方向发展。


三、生成式人工智能技术带来的风险与挑战


科学技术是第一生产力,科学技术的进步是促进行业发展不可缺少的原动力。随着生成式人工智能等人工智能技术的创新发展,人们一方面发现人工智能技术具有无限可能性,可以完成一些人们未曾想象能够完成的任务;另一方面也意识到,与一般信息系统相比,人工智能安全挑战可能带来更加严重、广泛和复杂的后果。


首先,通用人工智能安全事件不仅会影响设备和数据的安全,还可能导致产生严重的生产事故,危害人类生命安全。例如,给患者看病和做手术的医疗机器人,如果因为程序漏洞出现安全问题,可能直接危及患者性命。其次,一旦人工智能被应用于国防、金融、工业等领域,出现安全事件,将影响国家安全、政治安全以及社会稳定。最后,人工智能安全挑战还会引起更加复杂的伦理道德问题,对于此类问题目前尚无好的解决方案。例如,生成式人工智能服务产品客观上存在一定的技术缺陷,其太过依赖训练数据中的统计规律,无法在网络上抓取时事信息,也无法识别并核实数据来源,易导致算法歧视、霸凌、信息茧房等问题。


总之,人工智能技术发展和深度融合应用带来的安全挑战日益复杂。以生成式人工智能为例,其生成的内容难辨真假,且在运行中会采集我们使用过程中提供的大量数据。其应用实践中出现了许多由不公平的设计、不稳定的模型结论与侵犯隐私等问题所引起的用户信任危机,当中所牵涉的企业与用户数量广泛。生成式人工智能技术所带来的便利与技术得不到信任之间的矛盾,已然成为人工智能发展创新中亟待解决的问题,其应用产生的风险主要包括以下几个方面。


(一)科技伦理风险


开展科学研究、技术创新等科技活动不能脱离科技伦理的规范,这是促进科技事业健康发展的重要保障。当前,人工智能飞速发展带来的日益增多的科技伦理挑战,使人们意识到现有的科技伦理体系已经难以适应创新发展的现实需要。在应对生成式人工智能技术发展的同时,我们需要明确,随着通用人工智能的出现,伦理是人类固有的而非技术固有的这一传统观念也许会发生变化。


目前,生成式人工智能服务可以生成文本、图像、音视频等内容,应用领域极为广泛。然而针对其使用并没有建立相应的技术使用规范,极易产生违反伦理道德的风险,从而引发人们对生成式人工智能服务技术应用的不信任。尤其是在由弱人工智能向强人工智能过渡的阶段,人工智能的自主性不断加强,传统的伦理框架及人类的思维本质将因此面临空前的挑战。


生成式人工智能服务在新闻报道、论文撰写等方面的能力极为突出,与此相生的便是该技术沦为部分使用者制造谣言和伪造论文的工具。学术刊物《自然》(Nature)曾多次刊发关于ChatGPT的分析文章,对ChatGPT等大型语言模型(LLMs)给学术界带来的潜在混乱,生成内容存在的潜在侵权风险,以及如何规范使用等问题进行了多方面多维度的探讨。在此背景下,构建系统性的价值理念和行为规范,对于明晰如何使用生成式人工智能至关重要。上述内容不明确将直接导致学术规范问题、虚假信息和谣言传播等科技伦理问题频发,从而引发人们对人工智能的不信任,甚至会将这种不信任带到未使用人工智能技术的情形中。


除此以外,生成式人工智能服务通过数据和算法给予的答复也具有不确定性。答复内容是否符合一定的价值理念很大程度上取决于训练数据的质量和算法的合规程度,因此在源头上,通过提高数据质量,力促算法合规能够使生成式人工智能所产生的内容本身尽可能地不违反现有的伦理体系。另一方面,随着生成式人工智能的不断迭代,部分生成式人工智能等技术已被认为初步达到了通用人工智能的水平,能够拥有更接近人类的智慧水平。在此类生成式人工智能发展到一定程度后是否会自主拥有与人类相似的伦理观念这一问题引人深思。为应对此种情况,有学者提出将人因工程理念(Human Factors Engineering,HFE)引入通用人工智能研发设计之中,因为伴随技术不断进步,通用人工智能会越来越接近人类,其接近甚至超越人类的学习能力,将人因工程理念嵌入人工智能生命周期的始终能够尽可能实现诸如高阶生成式人工智能等通用人工智能朝着安全、可信、可控等方向发展。


随着人工智能向强人工智能时代迈进,其通用属性不断增强,人类极有可能难以掌控甚至难以参与智能生产的过程,科技伦理的规范也将愈发重要。


(二)权责划分挑战


近年来,谷歌、特斯拉和Uber等公司频现无人驾驶致人死亡事件,使得人与人工智能谁该为此担责的伦理争论愈演愈烈。对于无人驾驶引发的法律责任承担困境,美国麻省理工学院曾进行“道德机器”测试,收集全世界范围内的数据样本,“训练”无人驾驶汽车的人工智能系统对驾驶过程中不常见的情形作出判断,判断的结果也就成为了无人驾驶的行动依据。这些行为导致的责任划分则变得更加难以明确。因此,如果权责划分在事前并不明确,则有可能致使人工智能产品朝着脱离社会伦理、法律规范的方向发展,并对经济社会秩序产生危害。


一方面,人工智能领域的法律规范、伦理道德尚未健全,引发了许多侵权事件。在美国,莎拉·安德森(Sarah Andersen)、凯利·麦克南(Kelly McKernan)和卡拉·奥尔蒂斯(Karla Ortiz)三位艺术家对Stability AI和Midjourney等人工智能公司和平台提起诉讼,认为其在训练中所抓取的数据侵犯了数百万艺术家的版权。虽然该案法官威廉·奥里克(William Orrick)在听证会上表达了驳回该诉讼的倾向,但也表明这些艺术家可以在搜集更多证据后重新起诉。当侵权事件发生后,如何确定承担侵权责任的主体、正确划分侵权责任,成为了难题。“责任鸿沟”是安德利亚斯·马提亚在2004年提出的概念,所指的是算法的设计者和运营者在算法自主学习过程中未能预测未来及其运行产生的后果,也就是说人对机器的行动并没有足够的控制权,因此无法要求其承担传统的机器制造者和操作者的过错责任。


另一方面,生成式人工智能技术具有“普惠性”,使用门槛和使用成本并不高,广大人群普遍能够接触并使用该技术,这在一定程度上也提升了发生侵权事故的风险。以传播谣言为例,利用人工智能制造虚假信息和谣言轻而易举,部分用户为增长流量故意传播、制造虚假信息和谣言,会增加虚假信息传播的频率。


在生成式人工智能服务应用情境下,人工智能的自主性增强,同时需要根据外部反馈进行生成内容的优化,再不断输出生成内容,传统法律法规中的因果关系判断在隐层众多的算法黑箱中难以实现,面临着规制不能的困境。这也加大了侵权事件发生后,救济与维权的难度,在使用生成式人工智能服务的过程中,用户权益难以得到有效保护,从而加剧了公众对人工智能的不信任。


《暂行办法》规定,提供者应当依法承担网络信息内容生产者责任,履行网络信息安全义务。涉及个人信息的,依法承担个人信息处理者责任,履行个人信息保护义务。这初步确立了人工智能领域责任承担的基本规则,为后续规则的制定与实施提供了依据。然而,生成式人工智能在算法研发环节、使用环节的不当,同样会产生侵权责任,此时若仍由服务提供者承担责任显然会损害服务提供者的积极性,应当建立合适的归责制度。


(三)知识产权挑战


创新是引领发展的第一动力,在推动高质量发展的背景下,知识产权作为国家发展战略国际竞争核心要素的作用日益凸显。随着生成式人工智能服务的广泛应用,人工智能大模型的训练数据来源是否合法,其生成式内容是否能够被称之为作品以及相关权属争议,正成为人们关切的问题。


首先,生成式人工智能本身作为计算机程序能够被视为知识产权所保护的对象已经成为人们的共识,但是对于实现其功能背后的海量数据训练所涉及的知识产权问题仍存较大争议。《暂行办法》第7条规定,“生成式人工智能服务提供者(以下称提供者)应当依法开展预训练、优化训练等训练数据处理活动,遵守以下规定:……(二)涉及知识产权的,不得侵害他人依法享有的知识产权……”在此种情况下,数据来源的合法合规性值得重视,如何平衡数据中的知识产权保护与技术创新发展同样值得讨论。数据中的知识产权保护界限缺失或界定不明晰很容易引发“公地悲剧”,但如果过于强调数据的知识产权保护则会阻碍相关技术的发展,“反公地悲剧”也难以避免。


具体而言,对于如何平衡数据知识产权保护与技术开发创新发展,学界仍有较大分歧,其中,涉及生成式人工智能训练所需的海量数据集的版权保护问题尤为值得关注,譬如传统的“避风港”原则、合理使用原则等,在人工智能特别是在生成式等通用人工智能技术和产品的开发利用中如何调适。在我国现有著作权法律法规中,生成式人工智能对数据的使用是否构成知识产权侵权的最大问题在于使用行为是否属于“合理使用”。目前我国关于合理使用的规定中,与生成式人工智能技术领域最为接近的情形大致有“个人使用”“适当引用”和“科学研究”三种情形。结合该技术的服务群体为多数不确定人群、商业化使用等显著特点,现行法律很难将其使用归入“合理使用”范畴之中,依赖海量数据进行训练的生成式人工智能等技术很难摆脱侵权的风险,而一旦严格地按侵权处理则会阻碍该技术的创新。这是数据来源方面知识产权与技术创新之间平衡的难点之一。


其次,关于生成式人工智能的生成内容是否能够被认定为作品存在较大的争议。生成式人工智能生成内容的过程,很难摆脱人的影响。生成式人工智能首先建立在大量数据训练的基础上,根据使用者需求生成内容,并根据使用者的要求对内容不断完善,因此很难认定其生成的内容完全由人工智能自主生成,故引发了生成内容是否能被认定为作品的争议。有学者认为,著作权法保护意义上的作品须具备相应条件,生成式人工智能是模拟人类思维进行新创作的整体过程,其生成内容并不是人类的智力成果,并不包含思想或者情感的表达。但是,在实践中也有少数国家将计算机技术创造的内容视为作品,例如英国《版权、外观设计和专利法》(CDPA)第9(3)条规定:“对于由计算机生成的文学、戏剧、音乐或者艺术作品,其作者应该是作出了进行作品创作所必需的安排的个人。”英国通过立法的方式明确规定计算机所生成的内容为知识产权所保护的作品,不少国家也在实践中将计算机生成之外的非人类活动的产物视为作品,所以人工智能生成的内容不能视为作品的传统观点可能也将得到改变。


另外,《暂行办法》规定了提供和使用生成式人工智能应“尊重知识产权”。结合上下条文分析可知,立法者试图通过在数据训练等源头环节解决知识产权问题,以此谋求生成内容不再有任何知识产权侵权等问题发生,但是这样的规制思路似乎难以奏效。首先,对于用于数据训练等源头环节的数据使用侵权问题,在实践和学界中仍存较大争议,侵权行为难以定性。其次,即使能够保证源头环节的数据使用不存在任何知识产权问题,提供者也不能够保证生成内容一定不存在所谓的“知识产权侵权”情形。当然,讨论生成内容是否侵权的前提是该内容能够被认作为作品,并且有相应的权利人。


关于生成式人工智能生成内容的权属争议问题,虽然没有统一的观点,但是人工智能本身不能成为作品的权利人已成为多数学者的共识。在美国“猴子自拍照”著作权争议案中,一只猴子使用摄影师的相机自拍,有动物权益保护组织认为,自拍照版权应当归猴子所有。对此,美国联邦法院则认为美国版权法中的作者概念仅指向“人”,并不包含动物,因此版权法意义上的作品也必须是“人”的创作成果,猴子无法自行持有这些图像的著作权。该案表明美国版权法不承认非自然人享有著作权等权益,故属于非人范围的人工智能也不享有著作权。英国法也没有把计算机生成作品的权利赋予计算机本身,而是将其归于某一个自然人主体。我国《著作权法》第2条规定,中国公民、法人或者非法人组织的作品,不论是否发表,依照本法享有著作权。可见,目前我国也并未将人工智能视为著作权的主体。


(四)数据安全风险


我国的数据要素蕴涵巨大的潜在价值,若数据要素的价值能得到充分释放,遵循“潜在价值—价值创造—价值实现”的演进形态,必将对社会经济发展起到重要推动作用。在生成式人工智能技术中,数据安全风险大致可以分为两类:一是训练数据本身的内在安全风险,二是数据采集、使用等过程中的安全风险。


以生成式人工智能的数据大模型训练为例,其训练的结果直接依赖于输入的数据,形成前所未有的数据汇聚。然而受数据采集条件的限制,来源于不同群体的数据所占的比例并不均衡,例如当下训练语料大多是英文和中文,其他少数语种很难融入人工智能世界当中,具有一定的局限性。《暂行办法》提到“鼓励采用安全可信的芯片、软件、工具、算力和数据资源”,其中安全可信的数据资源便是针对生成式人工智能的技术特点。由于训练数据的质量会直接影响生成式人工智能的生成内容质量,有违伦理等要素的数据此时就可被称为具有安全风险的数据,该数据资源便不符合安全可信的要求。


除此以外,生成式人工智能的数据采集和使用过程也极易产生数据安全问题。数据泄露是信任危机诞生的主要来源,而巨大规模的参数是实现生成式人工智能服务技术的关键,目前GPT-4的训练数据量已达到13万亿。虽然目前主流的生成式人工智能技术服务提供者并没有公布数据来源,但通过现有的披露信息可知这些数据主要使用的是公共爬虫数据集和有着超过万亿单词的人类语言数据集。某种程度上,生成式人工智能服务技术是未来超级数字助理的雏形,在智能基础设施的支持之下,每个人甚至可以拥有多个数字分身,协同完成任务。可以想见,数字助理的背后是大语言模型访问、链接个人以及企业的私有数据,数据的融合利用一定是无缝衔接的。此类数据的访问处理如何以安全、合规、保护隐私的方式进行,对安全技术保障措施提出了更高要求。


随着互联网技术的发展,个人信息数量剧增,同时也变得更容易被采集。通过使用社交软件、购物软件以及交通软件,用户信息便可被轻易采集,而在智能设备使用过程中,诸如用户生理信息、生物特征等更多种类的数据也可被获取,多维度多方面的数据足以形成个人画像,一旦泄露或被非法利用将对个人权益造成损害。最近爆火的图像生成式人工智能软件“妙鸭相机”显露出的霸王条款问题,已引起人们对人脸信息保护的关注。“妙鸭相机”不同于ChatGPT等人工智能,其主要数据来源是用户提供的二十一张照片,涉及预训练的数据仅占很少部分。起初,“妙鸭相机”在使用条款中表述其对用户数据享有“永久的、不可撤销的、可转让的……非独家的许可,使得我方可以任何形式……使用您的内容”,一系列表述立即引起用户普遍不满。随着舆论的压力,提供者不得不对相关条款进行修改。事后,也有相关业内人士表示,此类人工智能不仅能够按照用户意图生成不同风格的图片,甚至可以生成能够通过公安系统审核的证件照片。


2023年8月8日国家互联网信息办公室公布的《人脸识别技术应用安全管理规定(试行)(征求意见稿)》对人脸识别技术进行了规制。目前,虽然市面上诸如“妙鸭相机”之类的图像生成式人工智能软件公司都明确表示该技术不具备人脸识别功能,但是此类人工智能所涉及的人脸信息处理技术,已然对现有人脸识别技术应用和人脸信息数据安全构成潜在威胁。以公安系统的人像信息采集为例,证件照本就是识别居民个人信息的重要手段,公安机关利用算法对人脸信息的关键特征进行甄别,最终研判出相关个人信息。而图像生成式人工智能则是通过算法生成不同状态、风格甚至不同年龄阶段的照片,即在用户提供的图像基础之上生成现实生活中“未曾存在”的照片,并且有可能使这些生成的证件照通过公安系统审核。此种情况下,由于人工智能也会采用独特的算法对用户照片予以调整,并且存在模糊用户人脸特征信息的可能,这些生成照片会对数据的真实性构成威胁,致使人脸识别技术发挥不了人脸识别的功能。该类技术的应用可能出现用算法打败算法的情况,倘若该类图像充斥公安等部门的数据系统,将对公共安全、国家安全产生不可逆的损害。


可见,即使在服务运营商承诺对数据进行严格保护的情况下,数据安全问题依旧难以完全避免。数据安全是人工智能技术获取人们信任的关键,倘若这一问题得不到解决,将阻碍人工智能的发展和应用。数据、算法和算力被誉为人工智能发展的三驾马车,随着用户对隐私数据的保护意识加强、数据泄露所带来的风险加大,如何在数据保护与数据驱动的人工智能研究中谋求两全之策,是通用人工智能创新发展过程中亟待研究问题之一。


(五)算法操控挑战


人工智能时代,除了严峻的数据安全问题之外,算法的统计性质所带来的不可控性、人工智能系统的自主学习性与深度学习黑匣子模型的不可解释性,也成为了导致用户信任危机的新要素。


着眼技术研发层面,实现通用人工智能创新发展的技术途径主要是数据与算法两个方面。如前所述,数据问题主要集中在隐私保护和安全、数据偏见以及由此带来的不公平,而算法问题则在于可解释性与稳健性。从底层技术逻辑的角度来看,算法在生成式人工智能服务技术训练的硬件基础设施、应用程序中均扮演着核心角色,塑造了用户的习惯与价值观。算法公平性的背后存在人为和非人为两种基本因素。如果说企业利用人工智能进行大数据“杀熟”,是可控的企业道德问题,那么大部分算法带来的挑战,则很大程度源自人工智能系统本身的不可控技术缺陷。所谓的不可控是指,人工智能模型在决策过程中存在黑箱问题,即推理过程不透明。


首先,算法缺乏稳定性。针对生成式人工智能服务的数据和系统存在多种攻击方式,例如病毒攻击、对抗攻击、后门攻击等。举例来说,通过向模型中投喂恶意评论,便可以从源头数据上影响推荐算法的判断,输出不准确的推荐结果。另外,干扰的形式不限于数字形式,也存在物理层面的干扰,例如通过打印对抗样本等手段,直接对自动驾驶和人脸识别系统造成物理层面的干扰。


其次,算法的可解释性尚待完善。以深度学习为代表的机器学习算法,本质上是一个端到端的黑箱。一方面,人们对拥有巨大参数量的大模型内部的算法迭代方式和运作机理尚不清楚;另一方面,人工智能算法作出决策时具体受到数据库中哪些数据的影响,人们也不清楚。譬如,曾有实验者向GPT-3(自然语言处理模型)提问“新冠疫情何时结束”,它的回答是“2023年12月31日”。但答案的依据是什么?研究者无从解释,也自然难保其准确率。


最后,算法偏见与歧视问题尚待解决。算法偏见与歧视的产生具有内外多重影响因素。一方面,若算法研发者在开发阶段设置了具有歧视性的因素或者错误设置了某些参数,会导致算法天然具有歧视偏见的导向;另一方面,生成式人工智能在大规模收集数据的过程中,数据的不全面会导致算法进行学习后产生片面的结果,由于生成式人工智能的重要特点就是根据反馈结果不断优化生成内容,因此外界的反馈结果中一旦含有偏见与歧视,也将影响最终的生成内容。


基于此,算法应用给生成式人工智能服务技术训练带来了根本性变革,算法崛起带来的最大挑战在于算法的不稳定性与不可解释性。基于这些特点,人们常以“黑箱”一以概之,原因在于人们时常无法理解它的逻辑或其决策机制。从“生产关系适应生产力”的角度看,监管应革新,以适应算法技术带来的生成式人工智能服务训练的演变。


四、通用人工智能创新发展的法治对策


当前,腾讯、百度等众多国内科技企业纷纷表示将研发类生成式人工智能服务等技术产品。面对激烈的国际竞争和对安全的挑战,正视生成式人工智能所引发的信任危机问题刻不容缓,否则此类信任危机将殃及整个人工智能产业,阻碍相关产业的持续健康发展。为此,应当着眼于前述挑战,探寻多维度、多领域、多层次、立体化的治理基点,加快推进通用人工智能的创新发展。


(一)建立科技伦理监督管理规范


当前,在科技伦理治理领域仍存在体制机制不健全、制度不完善、领域发展不均衡等问题,难以满足人工智能产业创新发展、提升竞争力的现实需要。为此,要加快建立多领域的科技伦理的监管和规范,加强科技伦理审查。一方面,应当对生成式人工智能服务应用的多个领域进行风险的精准识别与跟踪预测,提高治理的反应速度与监管效能;另一方面,明确生成式人工智能领域的科技伦理规则,展开事前监管,推进全要素监管,引导企业合规。


第一,建立科技伦理的风险识别与跟踪机制。科技伦理风险识别旨在基于风险分级的理念为后续差异化的应对机制提供初步的事实基础。因此,需要完善生成式人工智能领域的风险分级具体规则,充分利用现有的科学技术,深入评估生成式人工智能服务新技术在大规模市场应用前的安全隐患、技术成熟度、脆弱性等各方面,区分风险等级大小,对不同等级伦理风险的生成式人工智能服务进行不同严格程度的规范。在分级规则清晰的基础上,展开风险识别与跟踪工作。这在《暂行办法》中也有体现,其规定在利用生成式人工智能产品向公众提供服务前,应当向国家网信部门申报安全评估,并履行算法备案和变更、注销备案手续。


科技伦理的风险识别与跟踪机制的建立,一方面,有利于提升监管的明确性,保证监管可预期,引导生成式人工智能服务提供者合规,提高生成式人工智能服务产品的质量与包容性;另一方面,有利于通过预防性措施,发现其数据来源、运行路径、输出内容等方面所存在的缺陷或风险点,有效规避风险,避免事后规制的迟滞,从而提高生成式人工智能服务的可信度。但同时,若事前审查的范围与程度设置不当,可能会抑制生成式人工智能服务新技术产品的研发与训练效能,客观上会导致其发展的降速。因此,需要在统筹安全与发展的基础上,设置合理的审查范围,把握安全与创新的平衡。


第二,要加快建立科技伦理审查和监管制度。2023年4月4日,科学技术部发布关于公开征求对《科技伦理审查办法(试行)》意见的公告。该办法“主要是规范科技伦理审查的程序、标准、条件等,是覆盖各领域科技伦理审查的综合性、通用性规定”。其第4条提出科技伦理审查应坚持科学、独立、公正、透明原则,公开审查制度和审查程序,客观审慎评估科技活动伦理风险,依规开展审查,并自觉接受有关方面的监督。


科技伦理审查等外部监管方式较备案、自评估等制度来说强制性程度更高,能够敦促技术研发使用者提高人工智能技术使用的规范性,以明确的准则切实规范对人工智能的道德层面约束,能够有效提高人工智能的可信程度,维护社会公平正义、保障公众切身利益。


(二)完善侵权责任认定与承担规则


任何法律责任的实现均以责任主体的存在和确定为前提,以归责原则为依据。虽然说人工智能自主性的不断提升打破了侵权责任因果关系的传统理论,并出现了归责不能的困境,但从人工智能运行的底层技术逻辑来看,人工智能算法从设计研发到应用部署的每个环节都存在价值观和主观意图层面的影响,因此,可将人工智能算法设计部署的主观过错作为追责的根本依据。


第一,采用预防性责任方式。预防性责任方式要求根据不同的具体环境损害情形采用具有预防性功能的责任方式的变形形式。生成式人工智能服务的创新应用涉及数据处理者、算法开发者、服务提供者、使用者等多方面的利益衡量,在制度设计上不宜采取在“禁止使用”与“受害人完全忍受”之间二择一的途径,以避免使此类诉讼救济的途径成为一种“零和游戏”,而应允许中间排除或部分排除的可能性。


因此,《暂行办法》也对提供生成式人工智能产品或服务提供者提出了较为严格的要求,尤其体现在信息数据安全、知识产权保护、伦理风险规制、算法训练优化等方面。若预防性责任过于严苛导致合规成本过高,则会扼杀企业的创新模式。人工智能的新领域往往具有较强的不可控性与不可预知性。为此,《暂行办法》的责任预防性价值取向之一正是确保安全,并非完全承袭既有的网络技术先发展再治理的理念,而是希望明确新兴领域发展的底线与红线,避免技术产生的不可控的风险深度嵌入社会结构,进而出现难以应对的局面。


第二,明确责任承担主体。《暂行办法》规定,提供者应当依法承担网络信息内容生产者责任,履行网络信息安全义务。这一规定明确了责任承担主体为生成式人工智能服务提供者。然而,生成式人工智能是一条价值生产链条,其依托海量数据参与预训练大型语言模型,可以应对C端的便捷交互、内容生成、简化工作等需求,同时也具有面向企业、面向B端的行业化、场景化服务的能力,例如以人工智能技术为驱动的自动驾驶、利用行业或企业独特数据资源训练的医疗大型语言模型等。因此,面对生成内容应用的多领域、多主体,服务提供者往往难以对生成应用的风险进行完全的控制,故将责任承担完全归于服务提供者有失偏颇,应当考虑采用“避风港”原则,在《暂行办法》的基础上对提供者的责任与义务进行进一步细化规定,即没有完成规定义务、采取必要措施防范风险的服务提供者才应当承担责任。同时,提供者难以知晓或控制多领域应用的用途,对于主观上不存在过错的服务提供者,应当适用过错责任原则,不承担侵权责任。明确责任承担主体与归责原则,有利于在提前防范风险的同时,激励人工智能产业创新发展,避免打击产业创新的积极性。


大型语言模型带来的是认知突破和范式转变,不同行业的企业可借助通用模型的训练,培育出各自具备智人般的复杂推理能力和认知能力的模型。对于企业端的运用规制,目前《暂行办法》中尚未表明基本态度,亟待进一步明确。


第三,规范赔偿损失责任方式。宏观上,赔偿损失是对受害人价值利益的赔偿,仅能保障受害人的金钱价值利益。微观上,人工智能产品或服务所致的伦理秩序、生命抑或情感等损害,金钱赔偿难以全部弥补。为保证受害人得到充分赔偿,《暂行办法》应与《民法典》《刑法》等做好充分的衔接与互补,探寻合理的赔偿计算方式,总结出对完整利益救济的最佳责任方式。法院则应在充分考虑人工智能可行性和经济性的基础上,分阶段进行利益衡量与动态考察,优先考虑维持受害者长远利益和社会整体利益的责任承担方式和适当的赔偿金额。


侵权行为发生后,在责任判定过程中可以参照适用《民法典》,即若是由他人产品缺陷造成损害的,侵权责任则应由提供者承担,并且提供者应当对被侵权者的赔偿请求负责。如果平台能够提供充足的证据证明其已经尽到相应注意义务,出于平衡科技创新与权利保护的考虑,在责任的承担上不宜施加严格责任,否则过于严苛的责任承担将会阻碍技术的开发和未来的商业化应用。


(三)统筹公平竞争与鼓励创新双重价值


生成式人工智能服务是以数据资源为关键要素,以现代信息技术为主要载体生成新的文本、图像、音频和视频等各种形式内容的一种新经济形态。生成式人工智能的浪潮为算力基础设施、人工智能平台即服务等众多数字产业提供了新的发展点与市场空间。对于生成式人工智能服务,一方面需要保护知识产权,另一方面也需要竞争规则的规制,既要保护竞争也要激励创新,亟待寻求知识产权保护与反垄断之间的平衡。


知识产权属于私权,具有独占性,其预设的垄断权具有合法性,被用以加强市场力量,如果被滥用,可能会排除、限制竞争;而反垄断法属于公法范畴,用于限制垄断权,尊重私权(知识产权),但防止权利滥用,如果知识产权的行使排除、限制竞争,则同样受到反垄断法的规制。生成式人工智能背后的文本生成模型,具有规模庞大、自监督型训练和强通用性的技术性特点。这就意味着模型构建、训练和运维需要大量人力、算力和数据,而训练完成后的大规模通用型人工智能在某一特定领域内完成任务的能力则可以较为轻松地超过专门针对该领域所设计的中小型人工智能。


换言之,生成式人工智能产业前期投入大、研发周期长。但在发布后,其高效率、相较于其他途径的低成本和广泛的适用性,将使研发企业在市场上获得巨大的竞争优势。对于生成式人工智能服务的垄断风险,要兼顾知识产权保护与反垄断,兼顾保护竞争与激励创新。


首先,要坚持包容审慎监管原则,鼓励创新。一方面,要鼓励创新,为生成式人工智能产业营造适宜发展、有效竞争的市场环境。只有建立起一个公平、开放、有序的市场环境,才能保障生成式人工智能的健康发展和社会效益。另一方面,应当关注其上下游产业存在的垄断风险并及时规制。譬如,生成式人工智能的应用可能促进大型科技公司实施纵向一体化战略,从而产生垄断和反竞争的效果,这需要监管机构对芯片、云计算和下游应用市场的垄断规制予以关注,必要时进行有针对性的规制。


其次,应建立健全人工智能领域市场规则。面对数字技术快速发展导致竞争样态不断翻新、涉知名网络公司和头部企业的网络竞争案件层出不穷的现象,需要加强对行业竞争的规范指引、提升司法裁判的示范作用。譬如,北京知识产权法院2023年上半年发布的典型案例大多与数字经济领域息息相关,总结了相关案件的裁判规则。其中,蚁坊公司擅自抓取微博后台数据构成不正当竞争行为,此类新型竞争行为在此前存在规制上的争议与困境,而典型案例的发布使得新兴领域的市场规则逐渐明晰。


(四)改进人工智能数据安全保障


近年来我国对于人工智能等新技术逐渐迈入常态化监管阶段,始终秉持发展与安全并重的原则,力图实现新技术健康可持续的高质量发展。数据是喂养算法的原料,可谓人工智能的基础,数据安全的重要性不言而喻。同时,生成式人工智能作为大模型,对数据规模有更大的要求,更需要着重考虑加强数据安全保护、降低数据安全风险方面的需求。


第一,建立健全数据分类分级保护制度。需要结合人工智能服务应用的领域、人工智能底层算法的特性,建立健全数据分类分级保护制度。同时,应该在数据分类分级的基础上,建立与不同类型数据以及不同风险级别数据相匹配的数据安全保护机制,实现对生成式人工智能大模型大规模参数的有序管理。在通用人工智能的治理建设中应坚持以数据安全保护为导向,依据数据所具有的可共享性、复用性、多归属性、高度动态性以及使用加权属性等特征,统筹数据的发展和安全,运用场景化、动态化的方法,做好数据的分类分级及其制度实施,搭建起数据分类与分级的贯通机制。


第二,加快完善数据交易制度。生成式人工智能对数据的依赖程度极高,海量的数据训练以及算法的不断优化,能够使生成内容更加准确,并且符合人类预期。《暂行办法》提到“鼓励采用安全可信的芯片、软件、工具、算力和数据资源”,高质量、低风险是安全可信的数据资源的应有之义。目前,生成式人工智能技术的训练数据多来自于互联网上的文本数据。这些数据的质量参差不齐,隐藏的风险也无法预估,降低此类数据的风险,一方面主要依据算法的优化和数据标注工作等多层面的协作;另一方面,可以通过加快数据分级分类上市交易,通过市场的特性提高交易数据的质量,并将这些安全可信的数据广泛用于数据训练,进而一定程度降低人工智能技术提供者的研发成本。


第三,需进一步加强数据安全的全链条监管,推动监管前置。《暂行办法》明确提出,提供者应当根据国家网信部门和有关主管部门的要求,提供包括预训练和优化训练数据的来源、规模、类型、质量等描述,人工标注规则,人工标注数据的规模和类型、基础算法和技术体系等。通过监管前置进行事前保护,能够引导人工智能的训练过程更加规范,避免风险发生后监管滞后导致损害不可挽回,从而更好地保障用户的知情权、选择权等权益,提高算法的可信度。


最后,还需要审视现有的隐私保护与合规机制,不断更新、完善数据合规思路。当前移动互联网个人信息保护实践对于必要性原则的解释非常严格,以最大程度地避免数据的不当收集与汇聚。例如《常见类型移动互联网应用程序必要个人信息范围规定》不仅针对每类应用区分了基本功能与附加功能,还针对基本功能收集的必要信息进行了明确。在大部分基本功能中仅能收集两三类个人信息,例如定位和导航功能仅能收集位置信息、出发地、到达地三种信息;《App违法违规收集使用个人信息行为认定方法》更是明确:不得仅以改善服务质量、研发新产品等理由收集个人信息。这种“严防死守”的数据合规思路是否适合未来的人工智能应用场景值得探讨。


从移动互联网到我们正在步入的人工智能时代,虽然数据利用一直在向更广更深的方向发展,但各类新技术应用仍将隐私保护作为价值对齐的重要方面。应明确隐私和数据安全的真谛从来就不是对数据的使用进行各种限制,或者人为提高数据使用门槛,而在于通过激烈的市场竞争、健全的法律机制和更加强大的技术安全措施来切实保障用户隐私与数据安全。


(五)强化人工智能算法监管


生成式人工智能服务的快速发展,不仅表明大模型对数据规模和参数量需求的爆炸性增长,也表明算法迭代的复杂程度极大提高,算法的透明度与可解释性受到了前所未有的挑战。面对来势汹汹的算法危机,应围绕人工智能算法构建综合治理体系,针对人工智能算法进行专门性、系统化治理。


首先,应健全预防算法歧视的法律法规体系及规制机制,重点关注算法源头数据集以及训练数据样本来源是否合法、是否达到一定规模、是否具有完整性与代表性,避免数据层面的不完善导致产生算法歧视。服务提供者需要及时检查并更新相应数据,对存在歧视性的特定数据内容予以剔除,同时保证数据来源达到一定规模并具有完整性。一方面,可通过《网络安全法》《数据安全法》等法律规范,为算法治理活动明确合理边界,赋予服务提供者相应的注意义务。另一方面,可以通过对特定领域如人脸识别、算法推荐的专门立法实现对人工智能应用中算法活动的精准监管,形成对特定应用领域中算法风险的间接识别和应对。


其次,应在保证算法透明度与可解释性的同时重视创新。面对生成式人工智能服务,应积极回应人工智能算法相关的技术属性和应用规律,对人工智能算法治理的基本策略有所掌握和判断。《暂行办法》规定了服务提供者安全评估制度,并规定有关主管部门依据职责对生成式人工智能服务开展监督检查。以上规则的建立对生成式人工智能算法的透明度提出了要求,然而不能一味要求提升生成式人工智能的透明度。一方面,面对参数量和算法隐层的剧增,算法公开透明的技术难度显著增加;另一方面,透明度的提升很有可能会损害研发、应用主体的创新积极性,因此,需要保证创新与透明度之间的平衡。


最后,应坚持算法多元共治。在全国范围内成立自治性行业监督管理委员会,对人工智能技术行业进行业务指导和监督。委员会利用专业层面的优势,将分类分级监管原则贯彻落实,根据人工智能的应用场景对算法进行分级治理,辅助监管部门完成算法备案、算法审计及算法问责等工作,在此基础上推动通用人工智能技术在内容生成上的合理适用,在规范适用中不断完善通用人工智能算法的开发、使用及治理。


结 语


战略性新兴产业是引领未来发展的新支柱、新赛道。数字时代的法治图景应预见通用人工智能全球治理的未来形态。通用人工智能时代已经不远,生成式人工智能技术在短时间内飞速发展,其应用领域之广也让人们看到通用人工智能的革新意义,人工智能产业已经成为未来全球范围内新的竞争点。与此同时,通用人工智能产业创新发展也面临科技伦理、知识产权、归责机制、数据安全和算法操控等问题,使得人工智能的可信程度受到挑战。因此,需要进一步构建人工智能产业的法律规范体系,完善人工智能产业的科技伦理治理生态,出台相关行为规范和伦理指南,推动人工智能产业在法治轨道上健康持续发展。针对上述科技伦理挑战、责任侵权挑战、知识产权和垄断挑战、数据安全挑战、算法操控挑战等问题布局研究,寻求可行的技术手段,通过建立科技伦理规范、完善侵权责任规制体系、保护竞争并激励创新、加强人工智能数据安全保障、规范人工智能领域算法监管等方式,扫除通往通用人工智能创新发展道路上的拦路虎。