
-
专利
-
商标
-
版权
-
商业秘密
-
反不正当竞争
-
植物新品种
-
地理标志
-
集成电路布图设计
-
技术合同
-
传统文化
律师动态
更多 >>知产速递
更多 >>审判动态
更多 >>案例聚焦
更多 >>法官视点
更多 >>裁判文书
更多 >>目次
一、人工智能生成内容能否作为作品受著作权法保护
二、人工智能时代个人信息保护制度嵌入公益诉讼的可行性
三、个人信息保护公益诉讼的具体建构
自2012年我国民事诉讼法确立民事公益诉讼制度以来,公益诉讼制度至今已发展至涵盖生态环境和资源保护、消费者权益、国有财产保护、安全生产、物质和文化遗产保护、国防和军事利益保护、反垄断和反不正当竞争、反电信网络诈骗、英烈权益保护等特定群体权益保护等数10个领域。其中,2021年个人信息保护法的出台,增添了民事公益诉讼制度领域的新类型——个人信息保护。应当说,个人信息保护公益诉讼制度的确立是我国在数字时代强化公民隐私权保护、完善法律体系的重要举措,对于构建公民个人信息保护的多元治理生态与防范新型数据风险具有深远意义。
然而,近年来随着大数据、算法技术蓬勃发展,人工智能等科技产品逐渐从过去“高不可攀的神坛”走进寻常百姓生活。尤其自2022年开始,ChatGPT、MidJourney、Deepseek等生成式人工智能发布后,人工智能技术使用成本逐渐降低,人工智能进一步平民化、可接触化,随之而来的问题也进一步凸显。一方面,个人信息往往以个人数据的形式被加以收集、处理并进行流通,而AI发展中数据泄露、数据滥用风险指数大幅增长,并进一步导致数据安全防护成本增加。据IBM《2023年数据泄露报告》显示,全球日均发生2.8万次AI数据滥用事件,全球数据泄露的平均成本达到445万美元,创该报告有史以来以来最高记录,较过去3年均值增长了15%。同一时期内,检测安全漏洞和漏洞恶化带来的安全成本上升了42%,占安全漏洞总成本的比值也达到史上最高。至2024年,据IBM《数据泄露成本报告》显示,全球数据泄露事件的平均成本达到488万美元,与上一年相比,数据泄露带来的成本增加了10%,是自2020年来增幅最大的一年。同时,70%的受访企业表示,数据泄露造成了重大或非常重大的损失。另一方面,数据泄露、数据滥用导致公民个人信息侵权、违法犯罪案件激增,且违法犯罪行为呈现方式多样、隐蔽性强、群体化等特征,其中群体化特征决定了受侵犯的公民个人信息必然是针对不特定的多数人或某一群体,公民的个人信息保护亟需公共力量进一步介入,以维护受侵害的公共利益。可见,人们在使用人工智能提供便捷服务、感受到科技力量发展的同时,也进一步承受着技术进步带来的伤害。由此,以往适用民事公益诉讼一般规定的个人信息保护公益诉讼制度是否仍然契合当下AI技术的发展需求,成为一个值得思考的问题。有鉴于此,笔者拟以人工智能为背景,分析现阶段创新个人信息保护公益诉讼制度的必要性与可行性,并以此为基础,进一步对人工智能背景下个人信息保护公益诉讼制度的受案范围、启动主体资格、审理流程等进行程序设计,以期为解决人工智能发展下的公民个人信息保护问题提供些许助力。
一、人工智能时代个人信息保护公益诉讼构建的必要性
(一)人工智能时代个人信息侵权呈现新特征
不同领域中的公共利益在表现方式与性质上可能有所不同,因此也会要求对相应的公益诉讼程序作出差异规定。同样,不同背景下公共利益受侵害方式、所造成损害后果等也会产生变化,这要求现有的公益诉讼制度需依据现实情况作出调整或进行特别的规定。个人信息保护权益受侵犯在数字时代呈现出以下新特征:
1. 侵权主体多元化
当前,人工智能主要分为两种,分别是决策式AI与生成式AI。决策式AI是指通过算法模型对大数据分析所总结的规律作出对未来可能性的预测;生成式AI则侧重通过算法模型对大数据分析所总结的规律生成全新的信息内容。简言之,决策式AI的主要功能在于“作出预测”,生成式AI的主要功能在于“产出内容”。两者的共性在于均以数据(包含个人信息)为核心要素。决策式AI基于历史数据进行预测或分类,生成式AI则通过训练数据生成新内容。正所谓“取之于民、用之于民”,AI技术利用“自主性”为用户提供精准服务,离不开公民的个人信息授权与AI对用户信息的再利用。甚至从某种程度上而言,用户提供的信息更详细准确,AI提供给用户的服务更加契合其需求。与此同时,与传统的个人信息侵权相比较而言,个人信息的侵权主体从以往的单一主体侵权的“一元结构”演变成“三元”甚至多元结构。具体来说:
首先,开发阶段的AI算法模型的预训练均需以基础数据库为核心,进行海量的数据“投喂”。甚至于从某种意义上而言,AI训练中数据的质量决定了AI产品的质量。目前,AI开发者获取数据的方式主要有用户授权、第三方数据采购、网络爬取3种。用户授权数据具有数据实时性等优点,但同时因用户对信息授权感知度低,经用户授权采集的信息会在收集广度、处理深度及结果运用上与实际需要不符,即违反知情同意原则和最小必要原则,进而对个人信息保护形成风险。第三方数据采购是现阶段企业开发AI模型训练所使用数据的主要来源。
购买的数据在第三方平台是否经过用户授权存在疑义,此外,尽管有些企业表示采购的用于AI开发的数据均已经过“洗涤”,无法识别出个人信息的具体归属,但无法排除存在是否“洗涤干净”以及个人信息经过互相的对比呼应关联形成逻辑闭环,进而推测出信息属于特定自然人的风险。网页内容的爬取是数据的一个重要来源。随着算法技术的发展,爬虫技术也在不断升级。网络爬取获取的数据对公民个人信息保护存在风险,包括爬取到公民未公开的个人信息或具有识别性的个人信息,及采取具有侵入性的技术手段,绕过或者突破被爬取方的反爬取措施获取的信息等。
其次,决策式AI一般应用于平台的某一特定场景中,如医疗AI分析患者基因数据定制个性化治疗方案、自动驾驶中AI辅助计划驾驶最优路线等情景。平台对公民个人信息的侵权主要来源于平台利用公民个人信息获取非法利益,如平台利用算法技术对用户资料、网上浏览痕迹、购物记录等个人信息进行分析,以“同物不同价”的方式实现大数据“杀熟”;或围绕用户信息,向用户推送其可能感兴趣的内容,形成信息茧房,使用户的信息接收渠道受限,甚至形成认知偏见。
最后,用户使用阶段的公民个人信息侵权在生成式AI中尤为明显,生成式AI主要以交互聊天的方式实现智能服务,通过在聊天的过程中“记住”用户的个人信息和需求,进而提供生成文本、图像、代码等特定内容。一方面,这种场景下的公民个人信息来源于用户主动输入,人工智能能够“记住”或在与用户的对话中记住个人信息用于进一步提供服务、模型训练或内容生成;另一方面,AI本身具备收集、储存和使用个人信息的功能,且这种“信息记住”为不可逆操作,即便用户行使删除操作,AI仍会记住个人信息。
2. 损害后果进一步扩大且不可逆
如上所述,人工智能从开发到用户使用,每一环节均存在个人信息泄露或被违法使用的风险,且基于人工智能大模型训练的数据庞大,个人信息被泄露与使用的风险从以往个体扩大至群体。一方面,AI通过数据关联分析、群体隐私暴露或历史数据被持续用于训练模型的方式,个人信息侵权易扩大至某一群体,如通过亲属关系图谱推断家族病。且因信息一旦泄露,则可能通过互联网、黑灰产业链条被无限复制、传播,即使平台删除信息,其他渠道仍可能留存,形成“数字疤痕”。另一方面,与传统的个人信息侵权比较而言,人工智能时代的信息侵权更具有聚合特征。数字化时代的数据资源作为一种新兴的生产要素,具有非竞争性、可复制性和非排他性,因此具有公共物品的属性。这种公共属性来源于数据作为社会生产要素服务于不特定社会主体,而不是具体个人信息权益的简单相加,并且以数据相关性发挥经济或者社会安全价值。当个人信息被集合后遭受侵害时,其危害后果就不局限于信息来源者,而会影响到所有与其相关的不特定公众。
3. 隐蔽性强且二次衍生风险
首先,在使用AI服务过程中,用户对于个人信息的感知度降低,算法常常可以敏锐地将捕捉到的公民个人隐私信息用于算法决策,而用户无法察觉痕迹。其次,算法技术具有处理庞杂数据的能力,同时AI的自主性又使得个人信息利用进一步增添了隐蔽性,甚至超出算法设计和用户的认知范围。AI可以通过联邦学习、分布式计算等技术模糊数据使用痕迹,同时因算法黑箱的运行不能轻易为外界所认知使得个人信息侵权变得更加“捉摸不透”。也就是说,人工智能在利益追逐者的控制下,利用算法黑箱绽放的光环,形成行政监管的真空地带,算法黑箱成为利益追逐的遮羞布。基于以上原因,AI应用背景下公民个人信息权益受到侵害,易衍生诈骗等违法犯罪行为,且难以追溯侵权决策依据,也难以证明算法决策与损害的因果关系。
(二)公民个人信息权益受侵害现象易多发
据调查,目前我国的个人信息侵权形势较为严峻,保护状况不够理想,公众有较强烈的个人信息保护诉求。这源于公民个人信息保护不足易直接或间接地对公民利益、公共秩序造成诸多侵害。值得说明的是,公共利益与公民私人利益具有紧密联系。公民个人信息保护不足虽然可能直接对社会公共利益造成侵害,但最终还是体现在公民私人利益上。从公民个人信息侵权案件的发酵机制来看,常常是公民大量个人信息在不知不觉间被窃取,再通过人工智能模型生成的侵权内容加以违法利用,或平台通过智能模型分析个人信息以获取利益。笔者经梳理发现,人工智能侵犯个人信息主要集中在购物平台、网约车等各种商业场景或涉色情、诈骗等犯罪领域,以上领域的运行好坏或治理效果与社会民生息息相关,影响着公民的切身利益。
首先,个人信息泄露本身会造成损坏结果。人工智能收集的数据种类多、规模大、范围广,且对外部信息获取的防御模式不够全面,信息安全墙较为脆弱。个人信息数据被收集、分析和存储的过程中面临泄露的风险。如2020年Clearview AI非法采集人脸数据向至少600家执法机构提供最新人脸识别系统,其中涵盖从各大主流网站上抓取的30亿张图片数据,后数据库遭黑客攻击,致使多家执法机构数据外泄。
其次,公民个人信息泄露易衍生电信诈骗、金融犯罪等。公民个人信息一旦被泄露,犯罪分子极有可能通过掌握的公民个人信息进行违法犯罪,加之人工智能时代犯罪迭代升级,案件侦破的难度也呈几倍增长。如2017年黑客利用Equifax系统中未修复的Apache Struts漏洞(CVE-2017-5638),窃取了约1.45亿美国公民的敏感信息,包括姓名、社会保障号、出生日期、地址及驾驶执照号码等,犯罪分子冒充Equifax客服,诱导受害者支付“信用修复费”,单月诈骗金额达700万美元。
再次,公民个人信息被违法利用扰乱市场秩序。该行为主要体现在大数据“杀熟”和算法合谋定价。前者指购物平台利用掌握的公民个人信息,如网页浏览记录、消费记录、支付能力等海量数据进行分析,采取不同的营销策略,以实现“同物不同价”;后者指市场参与者在对市场数据进行分析的基础上,对其产品进行合谋定价,以实现不正当竞争目的。
最后,公民个人信息泄露影响政府公信力。政务系统接入人工智能需要大量的数据作为训练素材。现阶段,部分政务系统接入了Deepseek,接入方式有两种:一种是本地化部署,即文件上传到本地机房,通过物理隔离保障数据安全,但硬件成本较高;另一种是API调用,即通过开放接口将Deepseek功能集成到现有政务系统中,此种方式前期成本较低,因此广受青睐,但数据调用依赖网络完成并传输至云端,可能存在被攻击或越权访问的风险。部分政务数据高度敏感,包含大量公民个人数据,若发生数据泄露,会引起公民对政府管理信息能力和公信力的质疑。
(三)行政主体在个人信息保护中的缺位
信息技术的快速发展极大地提高了行政机关处理信息的能力,政府可以利用大数据提供准确、及时、全面的信息来应对风险,为现代社会节约行政成本,提升公共服务质量。与此同时,由于信息红利的价值愈发凸显,促使人们不断进行信息的挖掘利用。公民的个人信息在科技支持下,可以随时随地被网络传播和公开化,隐私保护问题愈发凸显。然而与之不相匹配的是,当下人工智能技术模式虽不断革新,个人信息保护工作在制度、理论、实践层面上却都还不够完善。从实践来看,利用人工智能技术违法开展人脸识别、大数据杀熟、换脸合声等侵犯公民个人信息权益的行为屡禁不止,公民个人信息安全问题严峻。针对这种趋势,必须通过加强对个人信息的“行政”保护来促使行政机关不断完善个人信息保护路径,亟需行政力量介入对可能侵犯公民个人信息的行为予以提前规制。
从传统的个人信息保护民事公益诉讼来看,仅以侵权人为被告的公益诉讼制度并未压实行政主体的监管责任。一般而言,行政权具有主动性,且权力覆盖面广。大数据快速发展的当下,相关行政部门在个人信息保护和风险规制方面应当站在主要位置。如有学者对我国个人信息保护实践中所应用的5种保护方法的效力强弱进行了排序,其中政府依法保护应当排在首位。此外,个人信息保护法第三章亦对负有个人信息保护义务的部门权力等进行了规定。当个人信息被大量侵权时,从侧面可以反映出负有个人信息保护义务的行政部门已存在监管漏洞。倘若延续传统个人信息保护公益诉讼的做法,那么判决的效力只针对侵权行为人,且侵权行为人所承担的侵权责任也仅仅限于停止侵权、承担损害赔偿等。若将个人信息保护公益诉讼纳入行政公益诉讼的轨道,那么所涉个人信息侵权的风险可能会受到全面限制、暂停或终止。这种将行政主体拉入公益诉讼的方式,有利于弥补行政部门的监管漏洞并督促行政部门履职,实现行政上对个人信息的全面保护。
二、人工智能时代个人信息保护制度嵌入公益诉讼的可行性
(一)现行法律法规为其奠定了制度基础
个人信息安全遭受侵害,伴随着公民的隐私权、肖像权等人格权受到威胁,个人信息安全保护问题在我国宪法规定中可以找到根本依据。为进一步将公民个人信息权益保护具体化,2021年11月1日正式施行的个人信息保护法第七十条规定,个人信息处理者违反本法规定处理个人信息,侵害众多个人的权益的,人民检察院、法律规定的消费者组织和由国家网信部门确定的组织可以依法向人民法院提起诉讼。该规定为个人信息保护提供了救济渠道,并确定了提起诉讼的主体,由此奠定了个人保护公益诉讼的制度基础,即当不特定多数人的个人信息受侵害时,可以由法律规定的主体提起民事公益诉讼。然而,当下大数据、算法、人工智能等技术飞速发展,传统单一的救济渠道已不能满足公民的救济需求,唯有在此基础上突破现有诉讼主体资格、救济渠道的限制,将个人信息保护纳入行政公益诉讼救济渠道,方能进一步形成人工智能背景下个人信息保护的合力。
我国现行公益诉讼制度为个人信息保护纳入行政公益诉讼轨道提供了空间。行政诉讼法第二十五条对公益诉讼的范围作出了规定,但以“等”字进行兜底,立法者有意为日后新出现侵犯社会公共利益的行为类型提供开放式空间,便于提供相应的司法救济。与个人信息保护相涉的一系列其他法律法规,为个人信息保护纳入行政公益诉讼轨道提供了具体性的制度支持,如民法典、个人信息保护法、网络安全法、数据安全法以及部分行政法规、司法解释、部门规章、地方性法规等。
(二)服务型政府建设为其奠定了主体基础
目前,我国政府已经基本实现了向服务型政府转变。服务型政府强调政府的有限性、服务性、公益性、透明性、参与性,提倡政府与公民、社会组织等主体共同致力于实现社会的有效治理。在服务型政府治理之下,政府角色从“管理者”转向“服务者”,强调公民本位,由此公民的民主意识、参政意识得到了增强,社会组织的活动愈加规范,公民、社会组织等主体参与社会治理的条件进一步成熟。据此,笔者认为,个人信息权益受侵害所影响的利益是多领域的,单凭检察组织、法律规定的消费者组织和由国家网信部门确定的组织对侵犯公民信息的行为予以规制,并不能实现对所侵害利益的全面救济。由公民、社会组织或政府相关部门就个人信息侵权提起公益诉讼,恰可以在很大程度上补齐行政救济的短板。再者,公民、社会组织通过就个人信息保护提起公益诉讼,还可以进一步增强其法治意识与参与社会治理的意识。诚然,具体到司法实践中,因AI引发的公民个人信息保护诉讼,不可能由公民个体进行诉讼,可以引入“数据权益代表人”制度,由数据权益代表人代表不特定用户参与诉讼。
另外,服务型政府建设推动行政部门细化职责分工与跨部门数据互通。一方面,行政部门细化职责分工明确了个人信息保护的法定监管义务,形成了由网信办统监管的局面,这决定了将个人信息保护纳入行政公益诉讼轨道,有利于在诉讼中完善网信部门监管漏洞,实现法治理念与服务型政府理念的衔接。另一方面,行政部门之间数据互通便于调取证据、锁定违法主体。因AI引发的信息侵权案件,仅凭公民力量难以取证,当公民自行发起行政公益诉讼时,网信等行政部门可支持起诉。
(三)其他领域的探索为其奠定了经验基础
我国现有的公益诉讼制度已涵盖生态环境和资源保护、食品药品安全、国有财产保护、国有土地使用权出让等数十个领域,以上领域的公益诉讼案件可为个人信息保护公益诉讼的程序设计提供丰富的经验。休谟认为,经验是对以往客观事物的镜像,为一切知识的形成奠定了基础。有学者对此进一步阐释,认为人能够通过“在做的事情”感受自身与外界事物的互动,并进行有价值性的追思,进而在历史的检验中形成新的行为规范。就个人信息保护公益诉讼而言,通过观察已办理的个人信息保护公益诉讼案件和其他领域的公益诉讼案件,笔者发现这两者之间具有诸多共性。这些案件恰好可以为设计个人信息保护公益诉讼程序规则及将其纳入行政公益诉讼轨道提供验证。目前,生态环境和资源保护、食品药品安全、国有财产保护、国有土地出让属于行政公益诉讼范畴。随着具有起诉资格的主体办案经验的不断丰富,公益诉讼典型案例层出不穷。例如,浙江省杭州市萧山区人民检察院受理了一起利用“AI换脸”技术侵犯公民个人信息案件,虞某从互联网公共空间非法获取众多人脸信息,利用AI换脸等深度合成技术非法处理、制作淫秽视频后,在超过2000人的社交软件传播。后萧山区人民检察院依法向杭州互联网法院提起民事公益诉讼,取得了良好的社会治理效果。
总的来说,无论是已经纳入行政公益诉讼轨道的诉讼事项,还是尚未被纳入行政公益诉讼轨道的诉讼事项,在当下皆起到了良好的运行效果,为个人信息保护公益诉讼的完善与纳入行政公益诉讼轨道奠定了经验基础。
三、个人信息保护公益诉讼的具体建构
人工智能背景下进一步完善个人信息保护公益诉讼,应当完善所侵害社会公共利益的界分、原告的资格认证、受案的具体范围以及相应的程序制度设计等方面内容。鉴于个人信息保护公益诉讼已纳入民事公益诉讼轨道,本文不再对其社会公共利益予以界分,下文仅对个人信息保护公益诉讼受案类型予以列举,并就其启动主体资格、诉前程序等程序规则予以完善。
(一)受案范围
个人信息保护公益诉讼受案范围的确定至关重要,关系着该制度的整体运行效果。目前,个人信息保护法第七十条并未就个人信息保护公益诉讼侵权的具体情形进行规定,仅规定了提起公益诉讼的两个条件,分别是“违法处理个人信息”和“侵害众多个人权益”,据此,鉴于人工智能背景下个人信息侵权主体多元化,笔者以公民个人信息的获取、储存、使用等环节为轴线,分析个人信息保护公益诉讼的受案类型。具体应当包括:(1)AI开发者违规获取个人信息。个人信息保护法对信息获取的知情同意、目的限定等作了明确规定,若AI开发违背这些规定采集未经授权的公民个人信息数据,或直接窃取公民个人信息数据,如以“默认勾选”或模糊条款强迫用户同意,未明确告知数据用途并且达到法律规定“众多个人”的条件,则可以纳入公益诉讼的保护范围。(2)AI开发者违规使用个人信息。目前市场上火热的生成式AI均是通过人机交互聊天的方式实现智能服务,在聊天的过程中,AI平台可能记录大量的公民个人数据。若AI开发者将这些用户数据打包出售给第三方或与自身有关联的企业共享数据但未在隐私政策中明确列出,则同样符合个人信息保护公益诉讼的起诉条件。(3)算法歧视。基于种族、性别等敏感信息进行自动化决策时,对部分公民平等权益造成侵害。如AI招聘系统对女性简历降权。(4)AI遭受黑客攻击或越权访问导致公民个人信息泄露。当下,AI广泛用于医疗、政务等领域,黑客攻击AI平台导致个人信息泄露,可能引起大规模的社会信任危机。甚至若遭受攻击的属于连接了政务系统的人工智能,可能导致政府公信力的丧失或需政府投入更多成本资源调查事件、修补漏洞。当公众对AI产生抵触情绪甚至抵制AI技术应用,将延缓智慧城市、自动驾驶等领域的进展,也将进一步削弱AI产业的发展。(5)大数据“杀熟”。随着算法技术的普及,大数据“杀熟”已普遍用于网约车、酒店预定、网上购物等场景中。平台违规利用人工智能对不同用户的个人资料、网上浏览痕迹、购货记录等信息进行分析,实现“同物不同价”。由此可见,大数据“杀熟”利用公民个人信息侵犯了消费者的隐私权、公平交易权、知情权等权益,将其纳入公益诉讼受案范围可以最大程度上为公民个人信息设置防御红线。(6)用户利用个人信息实施违法行为。此种情况属于当下出现频次最多的公民个人信息侵权行为,用户非法获取他人的个人信息,再利用AI合成加工后实施违法犯罪。(7)不提供个人信息“遗忘”渠道或遗忘不彻底。个人信息保护法第四十七条规定了个人信息的被遗忘权。AI或平台收集了个人信息,公民个人请求删除的,个人信息处理者应当删除。若AI开发者或平台未提供个人信息“遗忘”渠道或遗忘不彻底,相关主体也可以据此提起公益诉讼。
(二)诉前程序
法定的个人信息保护公益诉讼起诉主体包括人民检察院、法律规定的消费者组织和由国家网信部门确定的组织。若公安机关或检察院发现个人信息保护公益诉讼案件的线索,则应当适用行政诉讼法第二十五条规定,由检察机关优先发出检察建议,督促相关部门履职,以行政权前置的方式保护公民利益。若相关部门仍未履职到位,人民检察院应当依法向人民法院提起行政公益诉讼。其次,若个人信息侵犯众多公民利益的案件线索由法律规定的消费者组织和由国家网信部门确定的组织发现,可由其提起民事公益诉讼。检察机关与其他组织可进行协商,由其他组织提起诉讼的,检察机关可支持起诉,且法院应当适用民事诉讼法规定的民事公益诉讼程序进行审理。
另外,个人信息保护公益诉讼应建立诉前审查程序清单。为保障诉讼程序的顺利进行,避免司法资源的浪费,也为更好地利用司法保障公民信息权益,法院应当建立个人信息保护公益诉讼的诉前审查程序清单。在诉讼前,法院通过阅卷重点审查以下内容:通过查阅现有法律、法规,厘清行政部门之间的职责范围,审查检察机关起诉对象是否正确;是否符合法定立案条件;是否侵犯公民隐私;是否需要采取禁令措施;决定是否发布公告和公开审理等相关程序事项。
(三)完善程序规则
基于个人信息受侵害的聚合性特征,个人信息保护公益诉讼相关程序规则需要予以增加或调整。具体来说,应当区分不同情况,完善现有的证明责任分配机制。与此同时,除采用传统民事公益诉讼的责任补救方式外,应当引入禁令救济措施。
1.证明责任科学配置。证明责任很大程度上决定了公益诉讼的启动标准,同时亦决定了公益诉讼最后的结果。在此,需要将原告提起个人信息保护公益诉讼区分为两类:依损害提请及依重大风险提请。若已经造成了侵害事实,则提起公益诉讼未增加证明责任的复杂性。此种情况下仍应依据“谁主张谁举证”的基本原则,由原告对造成侵害的事实承担举证责任。如果原告就AI可能引起的个人信息保护重大风险提请公益诉讼,此时未产生实质性的损害结果,原告难以提供损害的实质性证据。相比于原告方,被告处于更接近算法的位置,对算法的运行及情况更加了解,可适当减轻原告的举证责任,如仅需原告提供可能存在数据安全问题的初步证据即可。
2.引入禁令措施。民事诉讼中,禁令是一种预防性措施,通常只有在情况紧急,不采取禁令措施会导致难以弥补的损害的情况下,才可以禁令方式救济。传统的预防性责任承担方式主要有停止侵害,停止侵害并不意味着一定禁止某一AI智能模型的运用。法院可综合紧急程度、禁用性措施导致的后果等综合适用禁令措施。同时允许法院根据情况变化,如被申请人已采取补救措施等修改或解除禁令。
(四)构建案件全流程审理模式
为解决个人信息保护公益诉讼审理规则不明的问题,结合个人信息保护的特点及现有法律规定。针对现有行政公益诉讼的办案特点,大部分的案件最终不会真正进入诉讼程序。检察机关发现侵害公民个人信息的案件线索时,可以通过发送检察建议给相关行政部门,行政部门通过依法履职、完善监管漏洞的方式完成对公民个人信息权益的保护,在行政部门反馈检察机关其采取的措施以及取得的效果后,便完成公民个人信息行政公益诉讼的流程。
针对公民个人信息保护民事公益诉讼制度,结合上述论述,笔者构建了法院审理个人信息保护适用的民事公益诉讼流程图。
结语
人工智能的深度应用在重塑社会效率的同时,也放大了个人信息泄露、算法歧视、数据滥用等风险,传统法律救济机制面临技术性、隐蔽性和系统性挑战。在此背景下,个人信息保护公益诉讼的完善与程序规则的构建,既是法律回应技术变革的必然要求,也是构建数字时代权益保障体系的关键路径。未来,需以“法治+技术”双轮驱动为核心,通过动态优化诉讼规则、强化算法透明度审查、引入智能禁令等创新机制,破解举证难、执行难等实践困境;同时,推动司法机关、技术主体、公众及行业组织形成协同治理网络,在保护个人信息权益与促进技术创新之间寻求平衡。唯有立足技术伦理与法治原则的深度融合,方能构建开放、安全、可信的数字生态,实现公共利益与个人权利在人工智能时代的共生共荣。

评论