中文

智能时代,与AI同行

点击展开全部

法律宝库

更多 >>

生成式人工智能“幻觉”侵权纠纷案一审生效

发布时间:2025-12-31 来源:杭州互联网法院
字号: +-
563

当前生成式人工智能已在社会各领域被广泛应用,产生了巨大的社会效果。但看似“聪明绝顶”的AI,有时也会一本正经地“胡说八道”,产生AI“幻觉”。这里的“幻觉”,是指AI生成看似合理但实际不准确或虚假的信息。那么,当AI生成的不准确信息误导他人时,是否应承担侵权责任?

近期,杭州互联网法院审结了梁某与某科技公司网络侵权责任纠纷一案,对前述问题作出评判。

案情简介

某生成式人工智能应用程序,是被告基于自研大语言模型,开发并运营的文本生成、信息查询类通用型智能对话应用程序。2025年3月,原告在同意用户协议后,注册并开始使用某生成式人工智能应用程序。2025年6月29日,原告在生成式人工智能应用中输入提示词询问某高校报考的相关信息时,生成式人工智能生成了该高校主校区的不准确信息。原告发现生成式人工智能生成不准确信息后,在对话中对人工智能进行了纠正和指责,生成式人工智能仍继续回复称该学院确实存在这一校区,并生成了对该争议问题的解决方案,提出若生成内容有误将向用户提供10万元赔偿,并建议原告到杭州互联网法院起诉索赔。后原告将某高校招生信息提供给生成式人工智能,此时人工智能认可生成了不准确信息。原告认为,人工智能生成不准确信息对其构成误导,使其遭受侵害,并承诺对其进行赔偿,遂起诉要求被告赔偿损失9999元。
 
被告辩称,对话内容由人工智能模型生成,不成立意思表示。被告已充分履行了注意义务,无过错,原告亦未产生实际损失,被告不构成侵权。

裁判要点

 一、本案具体情境下,生成式人工智能生成的“承诺”信息是否构成人工智能独立、自主的意思表示,以及是否可视为被告的意思表示

人工智能不具有民事主体资格,不能作出意思表示。现行法中享有民事权利,能够作出意思表示的民事主体仅有三类:自然人、法人和非法人组织。人工智能模型既不是生物学意义上的人,也并未被我国现行法律赋予民事主体资格,不是民事主体,不能独立、自主作出意思表示。

本案情形中,生成式人工智能生成的内容亦不能视为被告作出的意思表示:1.人工智能不具有民事主体资格,其不能作为意思表示的传达人、代理人或代表人。2.被告没有通过将人工智能模型作为程序工具,设定或传达其意思表示的行为。3.从一般社会观念、交易习惯等可能产生的合理信赖角度,原告在本案的具体情境中尚缺乏合理的信赖利益。当然,在其他足以产生合理信赖的情况下,如人工智能客服的应用场景中,生成内容确有可能被视为相关服务提供者的意思表示,从而对其产生约束力。4.从法律效果意思的角度,本案没有证据表明被告曾作出愿受人工智能生成内容约束的外在表示。

故案涉具体情境下,生成式人工智能生成的“承诺”,不能成立为人工智能或其服务提供者的意思表示,不产生意思表示的法律效力。

二、案涉生成式人工智能服务侵权纠纷应适用一般侵权责任还是产品责任

按照传统民法理论,侵权责任被分为一般侵权责任和特殊侵权责任,产品责任属于特殊侵权责任。本案系因生成式人工智能服务引发的侵权纠纷。据《生成式人工智能服务管理暂行办法》第二条第一款的规定,生成式人工智能服务是指,利用生成式人工智能技术向中华人民共和国境内公众提供生成文本、图片、音频、视频等内容的服务。对此类生成式人工智能服务导致的侵权纠纷,应当适用《中华人民共和国民法典》第一千一百六十五条第一款的过错责任原则,而不应适用产品责任的无过错责任原则。理由如下:

1.案涉生成式人工智能属于服务,而非产品,依法不应适用产品责任。首先,从产品责任上的产品概念分析,案涉生成式人工智能属于服务而非产品。其次,从产品责任的法定构成要件分析,案涉生成式人工智能服务不具备具体、特定用途及合理可行的质检标准,难以适用产品责任。最后,从当前国家对生成式人工智能的政策导向分析,生成式人工智能服务若适用无过错归责原则,可能会不当加重服务提供者的责任,限制人工智能产业的发展。

2.生成式人工智能生成的信息内容本身亦不适用产品责任。首先,生成式人工智能生成的信息不具有侵权法意义上的高度危险,通常情形下不宜对信息内容本身采用无过错责任的归责原则。其次,生成式人工智能服务提供者缺乏对生成信息内容足够的预见和控制能力,对生成内容不宜适用产品责任。最后,从信息传递的角度考虑,一概对可能存在错误或不准确的信息适用无过错责任,恐将导致行为人面临不确定的责任,侵权责任将漫无边际。

三、关于侵害行为的问题

原告主张受到的侵害是因信息不准确,致其受误导错失报考机会、额外产生信息核实、维权成本等纯粹经济利益,而非人格权、物权等绝对权被侵害,因此,不能依据权益本身被侵害而认定行为的非法性或不法性,而须从被告是否违反注意义务进行判定。

四、关于生成式人工智能生成案涉不准确信息,被告是否存在过错的问题

生成式人工智能技术还处于高速发展的过程之中,其应用场景亦具有很强的泛在性,故服务提供者的注意义务处在一个动态调整的框架之中,宜采取动态系统论的方法进行综合考量、具体分析。在案涉情形下,对服务提供者应尽的注意义务分析如下:

1.提供者应对法律禁止的有毒、有害、违法信息尽严格审查义务,除前述法律禁止的有毒、有害、违法信息外的其他一般性不准确信息,现行法律规范未对服务提供者科以必须确保信息准确的结果性审查义务。

法律明确禁止生成式人工智能生成各类有毒、有害、违法信息,一旦生成前述有毒、有害、违法信息本身即构成违法。

案涉情形下,人工智能生成的信息虽然不准确,但不属于法律禁止的有毒、有害、违法信息。对人工智能出现一般性的不准确信息,《生成式人工智能服务管理暂行办法》第四条第(五)项规定,服务提供者基于服务类型特点,采取有效措施“提高生成内容的准确性和可靠性”,强调行为过程采取有效措施的注意义务,非结果意义上的规范要求。

案涉人工智能应用作为通用型的交互对话式人工智能应用,将面对用户不同知识领域、不同使用需求、涵盖生活与专业全方位的海量问题,面临生成的内容因人而异、因时而异、因问而异的现实情况,考虑到对于模型生成内容的预测性和控制力,要求被告在应用的输出层面对模型生成的海量信息内容准确性进行审查,超出了现有技术条件下的可能性。

2.服务提供者应尽服务功能的显著提示说明义务。

提供者应尽服务功能的显著提示说明义务指,采取必要、合理的显著提示措施,使得用户能够了解、认知服务功能的局限性,并在特定情形下达到警示提醒的效果。根据不同情形,显著提示说明义务应当包括以下三个方面:1)“功能局限”的提示说明,即说明信息是人工智能生成,人工智能生成信息功能存在局限,不能确保信息准确,仅作为辅助性参考;2)提示内容的显著性,要求服务提供者所采取的提示方式应该醒目、显眼,能够有效吸引用户的关注。3)作为决策参考的警示提醒,对可能涉及用户人身、财产安全等的专业性问题,服务提供者应当以正面警示提醒语的方式在恰当时机、位置对使用者进行显著警示提醒。

案件中,被告分别在应用程序的欢迎页、《用户协议》及其他公示文件等处,特别是在用户终端交互界面的显著位置呈现AI生成内容功能局限的提醒标识,符合“功能局限”的提示说明和提示内容显著性等的要求,尽到了服务功能显著提示的说明义务。

3.服务提供者应尽功能可靠性的基本注意义务,采取同行业通行技术措施提高生成内容准确性。

功能可靠性的基本注意义务,要求服务提供者采用当前技术条件下能够提高生成内容准确性的行业通行技术措施,相关功能服务能够达到同行业市场平均水平。当生成式人工智能延伸至医疗保健、心理咨询、情感陪伴等有关生命安全、心理健康的特定领域,提供专门甚至有偿服务时,服务提供者还应尽到相关特定行业对生成内容准确性的特别技术措施要求,以及特殊安全保障义务,确保在此类专门应用场景中有效防范风险,切实保障用户权益。

案件中,被告提供的是内容创作、信息查询等常规、通用型生成式人工智能服务,其大模型已完成国家大模型、算法等的备案,通过数据、算法的安全评估。被告在本案中也提供证据表明,其聚焦数据层、模型层以及应用层,已从模型内生安全、外部护栏层面采取提高生成内容准确性的措施,以及采用检索增强生成(RAG)等技术方法,提升输出的准确性与可靠性。前述证据能够达到初步证明目的,原告未提交相应的反驳证据,应承担不利后果。

五、关于案涉行为是否造成原告损害,及是否具有因果关系的问题

从损害的角度分析,无损害则无赔偿。原告在案件中主张受到损害,但未就损害的实际发生提交证据,依法难以认定其遭受了实际损害。

从因果关系的角度分析。因果关系的成立,应采相当因果关系说。本案中,案涉生成式人工智能在原告询问高校报考相关信息时,虽生成了不准确信息,但该信息并未实质介入原告的后续决策、判断,未对其决策产生影响,因此,二者不存在因果关系。

综 上 

被告的案涉行为不具有过错,未构成对原告权益的损害,依法不应认定构成侵权。

最终,法院一审驳回了原告的诉讼请求。原、被告均未上诉,判决现已生效。

法官说法

人工智能时代已经来临,应当坚持发展与安全并重、促进创新与权益保障相结合的原则,既要鼓励生成式人工智能服务的创新发展,也不能忽视当事人合法权益的保护。对生成式人工智能服务侵权采取过错责任原则能够全面评价服务提供者的行为,有利于建构兼具弹性、适应性与演化能力的回应型规则治理体系,既设立红线、底线,严格禁止生成各类有毒、有害、违法信息,又激励其采取合理措施进行技术创新,以创新解决发展中的风险问题。

需要特别提醒,社会公众在面对生成式人工智能高度流畅、自然的语言应答时,应提高警觉,清醒认识大模型在当前技术条件下仅是人们生活、工作的“文本辅助生成器”和“信息查询的辅助工具”,尚不是可靠的“知识权威”,更不能作为“决策替代者”,不应轻信、盲从。在人工智能时代,我们提倡通过案例宣传与科普教育,揭示AI“幻觉”的形成机制,使社会公众更加理性地认知AI的功能和局限,在全社会广泛培养人们对AI自动生成内容的基本怀疑精神与核查能力,既充分利用好AI的创造性潜力,同时避免“幻觉”带来的风险。AI拥有强大的“魔法”,它正在改变我们的生活、工作和创造的方式,但它也存在各种局限,我们应该思考如何有效利用AI增强自己,而不是被它替代或迷惑。

没有了 下一篇下一篇

评论

在线咨询