13910160652
010-52852558
| |EN
首页 > 互联网 > 人工智能
  • 13910160652
  • ciplawyer@163.com

人工智能司法应用的责任归结困境与解决路径

日期:2023-10-09 来源:当代法学编辑部 作者:张琳琳 浏览量:
字号:

内容提要


人工智能在司法裁判领域中的应用对于提高司法效率、促进司法公正具有显著效果。然而,新技术与传统审判领域的碰撞融合不可避免地冲击着原有的审判责任与产品责任体系。在责任的衔接、认定和承担方面存在着责任衔接链条中断、主观心理判断困难、因果关系证明困难以及责任推诿加剧的困境。责任归结困境的形成源于算法权力对审判权的冲击、主体自身存在卸责倾向、算法的固有缺陷等因素。破解当前人工智能司法应用中的责任归结困境的出路在于理顺不同责任之间的衔接。在此基础上,针对责任认定困难和责任推诿加剧的具体情况,对原有责任框架进行调适。


关键词:


人工智能;司法辅助;责任归结;算法规制



“在法治化、数字化、智能化的新时代,推动依法治国和以数治国相结合,毫无疑问是一种顺应时代发展的新方式,是国家治理现代化的必然选择。”近年来,在“智慧法治”尤其是“智慧司法”的顶层设计下,一系列“人工智能+法律”工作在审判领域如火如荼地展开,各地法院开始深入推进司法人工智能的应用,人工智能不断融入司法审判过程及法官的司法裁量工作中。但人工智能并非万能,将其应用于涉及价值判断的司法裁判中可能会产生新的风险与问题,给现有的司法责任体系带来冲击。一旦裁判结果基于法官应用人工智能而出现错误,将会涉及法律责任的主体认定与承担问题。最高人民法院2022年12月9日发布的《关于规范和加强人工智能司法应用的意见》中规定“司法责任最终由审判者承担”,明确了人工智能司法应用中的责任归属,但未在责任认定与承担方面作出详细配套规定。司法人工智能技术应用系统本身的产品属性也受到了一定程度的忽略或回避,使人工智能产品责任并未体现在现有的司法责任追究体系之中。为此,本文拟进一步明晰司法人工智能的辅助性应用定位,探讨人工智能司法应用后的责任分配、认定与承担问题,并在此基础上梳理和分析当前司法裁判中应用人工智能所面临的责任风险,以此建构符合司法规律与司法实际的责任查究机制。


一、人工智能司法应用面临的责任归结困境


以人工智能为载体的新兴算法权力对审判权造成了冲击,为责任认定困境的形成埋下了隐患。算法权力是指智能算法基于机器、架构与嵌入优势超越了其原本的工具化属性,获得了实质调配资源的力量,从而具备足以支配他人或影响他人资源的权力形态,成为一种事实上的技术权力。算法权力弱化了审判权的独立性和专属性,带来了人工智能司法应用中的责任困境。


(一)责任衔接链条中断


在运用司法人工智能辅助裁判的模式下,法官兼具司法裁判官和人工智能产品使用者双重身份。当法官以司法裁判官身份裁决案件导致错案发生时,法官自然应当承担相应的审判责任,但如果错案结果是由司法人工智能造成的,且法官已经以司法裁判官身份承担了相应的错案责任,此时人工智能产品已经对法官造成了实际的损害或损失,法官的身份则应当转变为人工智能产品的具体使用者,这意味着法官将以平等的民事主体身份进入民事法律关系中,追究人工智能产品各相关主体的产品责任。因此,法官身份的转换勾连起了审判责任与产品责任,形成了一个完整的责任链条。但由于涉及责任衔接的两个基本问题尚无定论,也使得这个理想化的责任链条在实践中发生中断,而这种责任衔接链条的中断使产品责任被虚置,实际上是让法官承担了全部责任,使得法官无法以合理的途径或方式弥补由于应用人工智能所造成的自身损失。


1. 能否追究产品责任缺少定论


法官或法院能否对人工智能的生产者、设计者和管理维护者(以下简称“人工智能产品各相关主体”)追究产品责任缺少定论。在立法层面,我国的《法官法》《产品质量法》《民法典》以及法院相关工作条例均未对此给予明确回应。在司法层面,法院在实际工作中也体现出一种回避态度。虽然目前并没有与此直接相关的司法案例,但鉴于司法人工智能与医疗人工智能具有相似性的特征,法院在审理相关涉及人工智能医疗损害纠纷案件时大多将承担责任的主体局限于传统医患双方,产品的生产者、经营者、设计者所需承担的责任也同样被忽视,可见,法院对人工智能产品责任持回避甚至否定的态度。学界的研究焦点亦不在此,长期以来,学界更多关注的是法官应用人工智能辅助裁判后审判责任的整体分配方案。随着最高人民法院在新出台的《关于规范和加强人工智能司法应用的意见》中明确规定“司法责任最终由审判者承担”,关于审判责任整体分配方案的讨论逐渐进入尾声,但关于法官或法院能否向人工智能产品各相关主体追究产品责任的问题仍然没有获得学界关注。


2. 责任追究请求主体不明


这其中存在着两个难题:第一,法官与法院之间如何选择产品责任追究主体。即使肯定法官或法院可以追究司法人工智能产品责任,也仍然难以在法官与法院两者间准确界定产品责任的追究请求主体。法官作为司法人工智能产品的具体使用者,在承担审判责任后,实际上其自身利益已经由于使用人工智能产品而受损,由法官作为产品责任的追究主体,对人工智能产品的各相关主体进行追责并获得补偿,具备一定的合理性。但在当前实践中,司法人工智能产品或服务往往由法院统一购买或委托相关公司定制,相关买卖合同或委托合同亦由法院与相关公司签订,法院是司法人工智能产品的实际购买者、消费者,选择由法院作为产品责任的追究主体似乎更具形式合法性。第二,在实际案件审判过程中,作为公权力的司法权侵害公民的责任如何转化为产品责任,是追偿责任、替代责任,还是其他责任类型需要予以清晰界定。


(二)责任认定存在困难


1. 法官审判责任的认定困境


首先,法官的主观心理难以判断。对法官追究责任需要先对其主观心理态度加以判断和辨别。但主观心理具有极大的隐蔽性,实践中不易辨别。波斯纳在《法官如何思考》一书中提到,法官为了实现自己的隐蔽性心理,在审理案件的过程中往往会采用对案件事实进行裁剪或过滤的方法,“使事实平滑地符合法律结论”,做到在形式上没有漏洞可言,以此实现自己的主观目的。随着人工智能逐渐融入法官的裁判过程之中,法官主观心理的隐蔽性也得到加强。法官甚至不再需要亲自对案件事实进行裁剪,只需在人工智能系统中选择性输入或不输入案件的某些关键事实,系统便会推送出符合法官主观预期的类案与判决建议。司法人工智能的建构主要依托“知识图谱绘制+深度学习”的方式进行,其中知识图谱的绘制立足于海量的司法数据,需要技术人员和司法人员在庞杂的数据中以手动的方式进行点位选择和标注。如上海“206”系统仅从5800余份电子卷宗中就选取了12万个标注点,这些标注点最终都需经过人工筛选和校正,法官轻易就能将自己的主观选择掺杂其中,影响系统的准确性和客观性。如果后期出现追责问题,法官也可以算法错误或“根据证据规则能够予以合理说明”为由显示自己的“无辜”。此外,即便可以确认法官存在主观过错,但主观过错是故意还是过失仍然难以分辨。


其次,法官行为与错案结果之间的因果关系证明困难。第一,对法官追责的因果关系进行证明,需要查明法官确实存在故意或过失行为;第二,对法官行为能否作为错案结果的发生原因进行认定。在司法裁判中应用人工智能的工作流程与传统审判模式不同,诸如证据审查、查找类案和法条检索等工作不再由法官具体负责,而由智能系统负责。这使查明法官是否存在故意或过失行为的难度极大增加,由此影响到后续对法官行为能否作为错案结果诱发原因的认定,最终使因果关系证明失败。此外,错案结果的产生未必是由法官或人工智能单独一方的原因所致,也有可能是双方行为交互后共同导致,即使查明法官存在故意或过失行为,也会遇到因果关系证成失败的情况。


2. 人工智能产品责任的认定困境


人工智能产品各相关主体的主观过错难以被发现。智能系统推送的结果是各主体工作交互后的产物,每个主体均在不同且相互关联的环节中发挥作用。在结果发生错误后,“算法黑箱”得出结果的运作过程不能为人们所探知,也就无法分析致错原因,难以查明主体是否存在主观过错,更难以区分“故意”与“过失”。此外,人工智能的设计者和生产者还试图借助“技术中立原则”以技术错误为由遮掩其主观错误。“技术中立原则”认为技术具有中立性,强调技术自身功能与技术使用后果的分离,这一原则可细分出功能中立、责任中立和价值中立三个子概念。无论是功能中立还是责任中立都蕴含着价值中立的立场,技术中立的核心在于价值上的中立,因此,从技术价值中立论的视角看,算法就像任何一项其他技术,其本身只有“工具性”而没有“目的性”。当智能结果出错时,人工智能的设计者或生产者会利用这一原则隐匿主观过错,宣称其提供的只是一项完全客观中立的技术,并不涉及主观态度与价值判断,错误结果是由技术错误所导致。毕竟,科技发展风险不可控,为了鼓励技术创新与进步,社会对技术错误能够给予最大程度的容忍,技术错误也就由此成为了“主观过错”的有效挡箭牌。例如,在入选2016年推动法治进程十大案件的“快播案”中,被告深圳市快播科技有限公司就试图以“技术中立原则”为由进行抗辩以遮掩其主观过错。在“金德管业诉百度名誉侵权案”二审中,上诉人北京百度公司诉称,诉争词汇存在于网络搜索引擎的“相关搜索”中,这是搜索引擎的一个智能化附带功能,其相关词组是过去一段时间内,广大网民曾经搜索过的,与用户输入关键词关联度高的词,是经程序自动统计生成的,其本身具有动态、中立、客观的特征。百度公司对其不具有实际控制能力,不良影响的产生完全是由于程序自动生成所致,而非百度公司有意为之。


人工智能产品各相关主体的行为与错案结果之间因果关系的证明也存在困难。需要明确的是,这些主体的错误行为并不会直接导致错案,却极大地影响法官对于案件的基本判断,间接与错案结果发生关联。因此,认定因果关系的思路应当是:先对算法结果与错案结果之间的因果关系进行证成;认定确有因果关系后,对人工智能产品各相关主体的行为与算法结果之间的因果关系展开分析,确定导致算法结果出错的具体主体;最后对该主体行为与错案结果之间的因果关系进行推导。但问题在于,即使能够证明算法结果与错案结果之间具有因果关系,但碍于算法的“黑箱”属性而无法探知某个主体在算法编译和运行过程中的错误行为,主体的错误行为与算法结果之间的因果关系也无法证明。例如,设计者将某种偏见编译进算法,使存在偏见的算法结果对法官造成影响,酿成了错案。这种情况下,因为设计者不会将其存在的偏见以明显的外在形式表露出来,导致难以将其行为定性为“错误”,更难以说明算法在运行过程中确实选择了带有偏见的路径。证明主体错误行为与算法结果之间的因果关系尚且存在困难,想要推导主体的错误行为与错案结果之间的因果关系自然是难上加难。


产品缺陷类型不足也给责任认定造成了阻碍。产品存在缺陷是构成产品责任的关键要素,当前对于产品缺陷的判断标准有“存在不合理危险”和“不符合国家、行业法定标准”两项。目前我国未对人工智能产品制定统一的国家标准和行业法定标准,因此对人工智能产品缺陷的判断,主要以是否存在“不合理危险”为依据。在司法人工智能的硬件载体存在质量瑕疵时,可以通过对外观结构和物理性能方面的检验来判断。但人工智能的产品缺陷不仅存在于外在的硬件载体,也可能存在于内在的算法程序中,尤其是在算法涉及道德与价值方面的伦理判断时,现行的判断标准无法将其涵摄,现有的制造缺陷、设计缺陷和警告缺陷三种产品缺陷类别亦无法将其包括。


(三)责任推诿情形加剧


“夫凡人之情,见利莫能勿就,见害莫能勿避”,趋利避害是人的本性,在合理限度内进行责任的规避和推脱是可以被理解和容忍的。但在司法人工智能应用的责任问题上,由于主体自身存在卸责倾向且算法缺陷为卸责提供了便利,使责任推诿情形加剧,每个主体都想达致“不负责”的状态。“开发者会辩称,他们的算法是中立的,只是容易被置于有偏见的数据和社会不当使用的错误环境中,而使用者则会声称,算法很难识别,更不用说理解,因此排除了使用者在使用中的道德含义的任何罪责”。


1. 法官向人工智能推诿责任


法官为了减轻或完全消除自身责任会选择向人工智能及其设计者、生产者、管理维护者和数据提供者推卸责任。“机器的运用使裁判者与当事人的关系疏离和物化,削弱了司法官人道主义的责任感”,法官在应用人工智能进行裁判发生错误后,出于使自身“去责任化”的考量,在分析致错原因时可能会强调错案的发生完全是由于智能系统出现错误而非自身原因所致,将责任转移给人工智能及其人工智能产品各相关主体。例如,在江苏某法院因系统自动生成文书私放“老赖”出国案件中,本是因为承办案件的司法人员徇私枉法将被执行人私放出国,然而为了逃避追责,法院在进行初次回应时竟以解除限制被执行人出境的法律文书是系统自动生成为借口,“甩锅”给人工智能。此外,法官还可以选择将责任部分地转移给人工智能的部署者,即法院领导,强调智能系统是领导强制部署和推行,以求达成一种责任的“集体承担”状态,使自身所承担的责任份额降至最低。本轮司法改革的终身负责制推行后,法官的决策风险也不断增大,稍有不慎便会被“追责”甚至被“终身追责”,因此,法官在裁判活动中愈发依赖规避责任的行动逻辑。法官在“自保”心理的驱动下会产生卸责倾向,具体表现为通过某种途径追求自身责任的最小化或完全去责任化。法官“会通过诉诸权威、规则依赖、对外转移、集体承担等途径消解责任。”当人工智能被引入司法裁判后,法官的审判主体地位受到冲击,更削弱了法官的责任担当,使原有的卸责倾向加剧。


2. 人工智能产品各相关主体间相互推卸责任


人工智能产品各相关主体为了免受刑事惩罚或减少经济赔偿,会选择将责任推卸给除自己之外的其他主体。算法设计者可能以数据有误为由将责任转移给数据提供者,数据提供者则可能又以人工智能日常的管理和维护存在问题为由将责任转移给人工智能的管理者,而管理和维护者亦可将矛头指向算法设计者,声称是由于算法的设计错误导致了最终的错误结果。例如,在“2018年英国女性乳腺癌筛查漏检丑闻”中,对于算法错误到底是如何产生的,英国国家卫生医疗系统、公共卫生局和负责软件维护的日立咨询公司三方就互相推诿扯皮,都不愿为该事件的严重后果负责。为了将自身责任转嫁或消除,每个主体都将目光聚焦于其他主体的错误之上,而对自己的问题选择忽视。正如荷兰学者韦尔伯斯所言,“自然科学家经常声称他们只是开发知识,实际应用不在他们的责任范围之内。工程师和工程公司认为他们的设备没有问题,并以此来推卸责任。”正是由于每个主体都出于减轻自身责任的考虑,竭力向外进行责任转移,才导致了相互之间责任推诿现象的加剧。算法的固有缺陷为这种卸责提供了便利和可能,“人们可以确定人工智能做了什么,但不能确定它如何或为什么这样做”,“算法天然的不透明性体现在自动化决策过程中,我们只能观察到输入与输出,却无法解释输入是如何变成输出的”。算法难以解释的原因在于,算法得出结果的运算流程涉及到大量数据和复杂的算法方法且这个过程都以代码的形式展现,这决定了除专业人员外的普通民众难以理解算法的运算过程,也就无法对其结果进行解释。此外,因为“大型算法设计包含的参数动辄以十万计,而且可能历经数任程序员团体的修改与更新,整体上的算法解释颇为不易,一些命名混乱、逻辑不清的所谓‘祖传代码’即使对于参与设计算法的程序员亦是难以解释的棘手问题”,作为专业人员的研发者也未必能对算法结果进行充分完整的解释。因此,每个主体都会进行责任转移对象的权衡和挑选。此时,因为运算过程不透明、结果难以解释,更不能进行重复验证,责任转移失败的风险大大降低,人工智能产品本身成为他们责任转移的最佳对象。


二、人工智能司法应用的定位与责任分配


(一)司法中人工智能的辅助性应用定位


人工智能在司法裁判中仅具有辅助性的应用定位。虽然人工智能已经应用于司法裁判的各个环节,营造出一种人工智能与法官共同裁判的假象,但要清晰地认识到,人工智能并未脱离“技术”的本质。人类创造和发展人工智能的初衷是使其为人类服务,成为践行人类意志的众多辅助性手段或工具之一,与剪刀、汽车等工具并无本质区别。法院最初将人工智能引入裁判领域就是为了让其在提升审判质量和提高司法效率等方面发挥作用。可以说,司法领域中对人工智能的应用是手段或工具,而非目的。此外,在我国智慧司法的顶层设计中,人工智能已有清晰、明确的辅助性定位,即人工智能是一种提升审判质效的工具和实现司法公正的辅助性手段。各级法院在部署和发展人工智能时,也都本着工具主义的辅助性应用定位,将部署或推动司法人工智能快速发展作为工作目的。这种辅助性应用定位决定了法官在案件审理过程中仍然享有最大限度的裁判自由,拥有自行决定是否应用司法人工智能辅助裁判的自主选择权,即人工智能只可以辅助法官审理案件,不能主导或与法官共同主导案件的审理。法官在具体应用时也需坚持人工智能的辅助性定位和“司法主导算法”的应用逻辑,以免陷入对人工智能的技术依赖,不能默认、纵容其介入司法决策或允许其在无形中分享审判权。当法官的司法判断与智能建议相异时,需要法官坚信自身的专业素养与司法经验,审慎地对自身判断和智能建议进行检视以得出正确结论。


(二)司法中人工智能应用的责任承担主体与分配方案


1. 人工智能司法应用中的产品责任


首先,人工智能不具备成为责任主体的主体资格,这是人工智能产品各相关主体承担替代责任的前提。所谓替代责任,是指“实质责任人为他人的行为和为他人之行为以外的自己管领下的对象所致损害负有的侵权赔偿责任。”从替代责任的范围来看,对责任人管领下的物件的损害承担赔偿责任属于替代责任。人工智能不具有主体资格,不能作为责任主体,当其发生致害行为时,其产品各相关主体应为其承担替代责任。多位法学家均就“法律主体”给出过定义,尽管界定的视角不同,但仍然可以从中归纳出法律主体资格的基本要件:一是具备行使权利、履行义务和承担责任的能力;二是具备自由意志,也就是独立的辨识和判断能力。可以判定人工智能并不具备这些基本要件,原因在于:第一,以技术为载体的人工智能没有独立财产作为承担责任的物质基础;第二,无法选择对机器进行“肉体”惩戒,诸如永久销毁、修改程序、删除数据等手段亦不具实际意义;第三,人工智能所谓的“意志”,也只是人类预先设定的算法作用的结果,是被动的、受强制的“意志”,而非自由意志,“事实上,计算机只能执行人事先设定的程序(包括算法和数据),不具有真正意义上的智能”。


其次,基本伦理决定了人工智能的非主体地位。人是目的,人类社会的所有行为实践必须有益于人类自身的发展。人工智能能否被赋予主体资格,关键在于其具备主体地位后是否对人类发展绝对有益。答案是否定的。如果赋予人工智能主体资格,使其享有“人”的权利,就意味着“必须动用人类自身的资源对人工智能进行与人相同或者类似的法律保护,从而与法律对于人类自身利益实现的宗旨完全相悖”。不仅如此,人工智能在很多方面相较于人类具有效率上的绝对优势,如果赋予其主体资格,使其平等地参与进社会工作和生产,在某些领域人工智能必然凌驾于人类之上,最终损害人类的发展利益。


最后,人工智能的生产者、设计者、管理维护者和数据提供者作为产品责任承担主体,承担替代责任。司法人工智能属于产品范畴,根据我国《产品质量法》第2条第2款的规定,产品是指经过加工、制作用于销售的产品。可见,产品应当同时具备人造物属性与销售物属性,当前司法人工智能全部具有这些属性。首先,司法人工智能虽然具备了一定的智能性特征,但其人造物属性并未发生改变,仍然是由人类设计、编译并负责生产制造;其次,当前法院部署、发展司法人工智能所普遍采取的模式是技术外包,本质上属于法院向相关科技公司购买产品,司法人工智能因此具备了可销售属性。尽管所销售的产品可能涉及有形(服务终端)与无形(算法软件)两个部分,但“产品的本质属性不在于它是有形还是无形,而在于批量生产、规模销售带来的社会效益,软件的无形性特征并不构成确立严格产品责任的障碍”。


就产品责任承担主体而言,应当根据人工智能司法系统的设计和使用的逻辑顺序确定人工智能的生产者、设计者、管理维护者和数据提供者为产品责任的承担主体。由于当前人工智能处于弱智能发展阶段,其功能的发挥有赖于背后诸多主体的共同作用:人工智能的设计者和生产者负责算法的编写和应用程序的定制;智能系统的正常运行有赖于人工智能的管理维护者的定期维护和技术升级;因为人工智能需要利用司法大数据进行算法推演与结果预测,数据提供者所提供数据的准确性、真实性就至关重要。因此,当人工智能产品缺陷使法官判断失误而导致裁判错误时,可以按照合同约定的技术指标(包括可以应用于哪类实践、适用哪些场景、达到什么样的水平等)向相关技术公司追究人工智能产品的替代责任。鉴于我国《民法典》和《产品质量法》规定的产品责任主体仅包括生产者和销售者,考虑到人工智能在经济社会中具有很强的传导性和连锁性,还应将人工智能的设计者、管理维护者和数据提供者纳入责任主体范围。


2. 人工智能司法应用中的法官责任


哈特在《惩罚与责任》中提出了四种不同类型的责任概念,可借此对法官作为唯一的审判责任主体展开分析。首先,这是由角色意义决定的。哈特认为,当一个人在社会组织中占有特定的地位或职位,会有特定的义务附随于这个特定的地位或职位,这个特定的义务就是他的责任。法官在整个裁判过程中居于主导地位,负有确保裁判结果公平、公正的义务,当裁判错误或不公时,法官应对此负责,承担不利后果。基于审判权独占原则,其他主体在审判过程中不与法官处于相同地位,就此赋予了法官作为审判责任主体的唯一性。人工智能被应用于裁判领域后,法官的主导性地位未发生根本变化,换言之,并未出现与法官地位等同或接近的其他“角色”,法官仍是承担审判责任的唯一主体。其次,这是由因果意义决定的。因为法官享有裁判结果的决定权,法官作出怎样的裁判决定就会产生怎样的裁判结果,所以案件双方的胜败与否完全取决于法官。这可以表述为:因为法官作出了正确/错误的决定,所以产生了正确/错误的裁判结果。在这种因果意义下,当裁判结果错误时,尽管人工智能可能在其中起到了某些作用,但最终的决策仍是由法官作出,法官理应为其负责。再次,这是由能力意义决定的。人们要求某人为相关行为或事件负责,就是默认这个人具备完成该行为或事件的相应能力,换言之,主体只有具备完成相关事件并导致相关后果的能力,才能要求其承担相应责任。就承担审判责任而言,要求主体必须具有完成审判活动的能力,才能对其追究责任。这些能力包括理解能力、推理能力以及判断能力,“具备这些能力的人能够理解法律规则或道德规范要求什么样的行为,通过慎重思考作出相应的决定并使行为服从该决定”。显然,只有法官能够通过多年的司法实践获得这样的能力;最后,这是由必然意义决定的。根据哈特的理论,必然意义的责任之成立以满足角色意义的责任、因果意义的责任和能力意义的责任为基础,易言之,当法官具备了其他三种意义上的责任条件时,法官就必然是唯一的审判责任主体。同时,必然意义的责任还要求“违法者在法律上必须受到惩罚或者必须做出赔偿”,也就是说,当法官的行为造成裁判错误或产生严重后果时,法官必须承担审判责任,并受到处罚,这是一种绝对的、必然的法律后果,不因某种因素的改变而发生变化。


3. 人机共担责任的分配基准


第一,人工智能自主性程度影响产品责任的大小。产品责任主体一经确认,他们实际承担的责任就应与人工智能自主性程度相符合。自主性越强,产品责任主体的责任越大,以此提示产品的设计者与研发者承担更多的注意义务;反之,自主性越弱,产品责任主体的责任越小,而法官的注意义务越大。研发强人工智能的科技公司对产品的责任更大,需要通过产品责任提高算法伦理的注意义务。人工智能司法应用程序设计,需要根据现有的法律法规、典型案例、主流学说与审判实务等,绘制裁判规则图谱,运用人工智能算法将之转化为执行代码,通过文字识别当事人提交的文书中的核心要素,结合庭审双方各自的争议焦点,自动选择裁判规则,最终得出判决结果并生成文书。这已经涉及到司法审判最为核心的内容—事实认定与法律适用问题,此时产品责任方的责任理应增大。


第二,算法的可解释性程度影响产品责任的大小。在智慧司法模式的推进过程中,法官的主体身份逐渐从传统意义上的法官过渡到“法官+AI”模式,在司法权运行过程中要考虑算法公开、反算法歧视等问题。在不同法官主体身份中,司法责任的本质是共通的,就是要在司法审判中解决主体“对什么负责”的问题。对于错案结果的发生,应当区分法官与人工智能产品对错案结果产生影响的程度,但是其中的难题在于产品的研发者、人工智能、法官(使用者)之间的联结使彼此责任的区分变得困难,因此,从法律规则上明确各自的义务内容就显得十分重要。产品的研发者应严格遵守合同双方约定的技术指标,确保算法的可解释性;法官作为人工智能的使用者,需要明确人工智能的技术内容及能够达致的范围。产品研发公司若不能提供可解释性说明,将增加其产品责任;对于忽视或滥用人工智能可能造成的后果,法官应承担相应的注意义务和责任。


三、人工智能司法应用责任归结困境的解决路径


“机器智能法律问题的实质是数字化时代的人机关系在法律上的投射,发轫于计算机,兴盛于网络”。责任困境形成的源头在于人机关系的失衡,因此,对责任困境的破解,首先需要解决法官与人工智能产品相关主体之间的责任衔接问题,对产品责任追究的正当性进行证成,同时明确产品责任追究的请求主体。在此基础上,针对责任认定困难和责任推诿加剧的具体情况,对原有责任框架进行调适。


(一)责任衔接链条的贯通


1. 产品责任追究的正当性


首先,追究司法人工智能产品责任符合公平正义的价值追求。公平正义是法的终极价值目标,所有的司法活动都应围绕这个目标进行。允许法院追究司法人工智能产品责任在本质上符合亚里士多德提出的矫正正义理论,最终有利于实现法的公平正义。矫正正义的基本原理是“在一方实施了侵害行为而另一方受到伤害时,应当恢复双方的平等地位,从而使善与恶重新回复一种均衡状态”。可以看出,矫正正义侧重在行为结果发生后对不公正结果的外在补救和纠正,亚里士多德对此做出了形象的比喻,“如果一条线段被分成两个不等的部分,法官就要把较长线段的超过一半的部分拿掉,把它加到较短的线段上去。当整条线段被分成了两个相等的部分,就是说,当双方都得到了平等的一份时,人们就说他们得到了自己的那一份”,当两段线相等时也就代表正义得到了实现。如果不追究人工智能的产品责任,仅由法官承担审判责任,实际上就是由法官承担了全部责任,两段长短不一的线也就由此而出现。而追究人工智能产品责任的过程就是使两段线相等的过程,通过对产品责任的追究,使法官与人工智能产品之间的整体责任分配达致平衡状态,实现公平与正义。其次,追究司法人工智能产品责任符合人工智能技术伦理要求。“发展负责任的人工智能”是人工智能发展的基本技术伦理要求。我国于2021年发布了《新一代人工智能伦理规范》,更为具体地明确了人工智能发展的技术伦理规范,人类需要为人工智能所引发的后果负责。追究司法人工智能产品责任,就是要将人工智能在辅助裁判过程中出现的错误作为责任归结的重要因素,最终的责任则由人工智能背后的人类承担,因而符合人工智能发展的技术伦理要求。最后,追究司法人工智能产品责任有利于司法人工智能应用的长远发展。一方面,允许追究人工智能产品责任可以使法院与法官在承担审判责任后所受的损失得到弥补或补偿,使其应用司法人工智能辅助裁判的热情不致发生消减;另一方面,允许追究人工智能产品责任也可以倒逼人工智能产品各相关主体以更加审慎、严谨和负责的态度参与司法人工智能的设计与研发工作。


2. 责任追究请求主体的明确


在法官与法院两者之间,选择以法院作为司法人工智能产品责任的追究请求主体更为妥当。原因在于,选择法官以司法人工智能产品使用者身份直接面向司法人工智能各相关主体追究产品责任,可能会为法官实现其自身卸责倾向增加便利,从而使法官责任推诿加剧。具言之,如果以法官作为产品责任的追究请求主体,每当法官应用司法人工智能辅助裁判出现错案时,法官出于对外转移责任的卸责倾向或尽可能减轻自身损失的想法,无论错案结果是否由人工智能导致,都会选择追究人工智能的产品责任,使责任推诿情形加剧,造成司法资源的浪费。此外,在法官直接作为产品责任追究请求主体的前提下,即便最终导致人工智能产品缺陷的相关主体承担了产品责任,但法官由于承担审判责任所受到的非财产性损失(例如调离审判岗位、退出员额等组织处理或政务处分等)仍然无法得到有效弥补或减免。另外,人工智能应用下的错案发生通常是由算法错误或偏差导致,涉及一系列案件,因此,不宜将法官确定为产品责任的追究请求主体。


如果选择以法院作为产品责任的追究请求主体,则可以避免上述问题,仅需在法院认定法官的审判责任时做出相关要求即可。首先,法官应在审判责任认定时向法院提出错案结果是由司法人工智能产品存在缺陷或错误所导致;其次,法官惩戒委员会对人工智能是否存在缺陷以及错案结果是否由人工智能所导致进行审查,如果审查结果显示错案确由人工智能产品缺陷或错误所致,则对法官承担的审判责任进行适当减免;最后,法院依据审查结果决定是否追究人工智能的产品责任。如人工智能产品存在缺陷或错误且导致错案发生,法院应追究其产品责任;如人工智能产品存在缺陷或错误,但并非导致错案发生的影响因素,法院应依据合同追究相应的产品责任;如人工智能产品不存在缺陷或错误,则法院不需要追究产品责任。


(二)责任认定模式的改进


1. 审判责任认定模式的调整


采用过错推定原则,以行为是否违反《法官法》《人民法院工作人员处分条例》《公务员法》为标准来推定法官是否存在主观过错。在此,需要完成一个前提性的条件,即增设法官对于智能运算结果的审查义务,并以明文对此加以规定。适用过错推定模式来进行主观过错判断,实际上就是“在违法行为与违法故意之间建立了一种事实推定关系”。在对法官进行责任认定时,追责部门不再需要举证,只要发现法官存在违反或未尽职履行依法审判义务或智能结果审查义务的行为,就可以认定法官存在主观过错,“作为熟悉法律规则、从事法律职业的司法人员,法官违反程序法、破坏司法规范的行为本身,就足以证明其具有主观上的故意或者过失”。推定法官存在主观过错后,如果法官不能就主观心理确为“过失”做出必要的解释,则将其主观过错认定为“故意”,以此倒逼法官在审判过程中以更加审慎的态度履行其依法审判和审查的义务。


因果关系证明责任倒置,由法官证明因果关系不成立。具体来说,只要追责部门证明了法官在审判过程中确实存在违法行为,就可推定法官的违法行为与错案结果之间存在因果关系,无需对因果关系进行证成和举证。如果法官无法证明因果关系不成立或证明失败,则需要承担违法审判责任。这是一种因果关系推定,推定方依据某个领域特殊的经验法则,以事实为基础即可直接推定该事实与特定结果之间存在因果关系,被推定方唯有证明相关事实与结果之间无因果关系方可免责。例如,在著名的日本“四日市哮喘案”中,法院就进行了因果关系的推定。在对法官进行责任认定时,由于法官在审判中的违法行为与错案结果之间存在着“法官违法裁判会导致冤案、错案”的经验法则,追责部门可以在确定了法官的违法事实后,直接适用因果关系推定,不再承担因果关系的证明责任。而法官为了使自身责任得到免除或减轻,一定不会放弃对其行为与错案结果之间无因果关系的证明,尽管存在着极高的失败概率。


2. 产品责任认定模式的完善


人工智能产品的制造缺陷与传统产品的制造缺陷并无本质不同,且原被告双方的举证能力相差不大,可适用“谁主张,谁举证”的举证原则,由相关部门承担举证责任。对于伦理缺陷和设计缺陷则适用举证责任倒置。人工智能的设计缺陷和伦理缺陷存在于内置的算法之中,且算法具有不透明、难以解释的特征,作为非专业人士的原告或相关部门对设计缺陷和伦理缺陷进行举证的难度极大。由此,举证责任应当由具备高超专业素养的算法设计者承担。同样,对非专业人士来说,证明人工智能产品缺陷与损害后果之间的因果关系也几乎是不可能完成的任务。因此,对于因果关系的证明应适用推定模式,原告或相关部门只需证明人工智能存在着产品缺陷的事实,即可推定人工智能存在的产品缺陷与错案结果之间存在因果关系,确保人工智能产品设计者保持较高的谨慎注意义务。


将伦理规则引入人工智能产品缺陷的判断标准,增设产品缺陷类型。将伦理因素引入司法人工智能产品缺陷的判断标准之中,制定人工智能的司法伦理标准,使人工智能的运算过程和结果以实现司法公正为核心原则,进行透明、可解释的智慧辅助,避免出现算法歧视和黑箱问题。笔者认为,人工智能司法伦理标准应当包括:第一,算法和结果符合法律原则和规则,这是人工智能产品的伦理底线,如考夫曼所言“法律与道德在某些观点上有所不同,但相互间不能加以分离”;第二,算法和结果符合人类社会的基本伦理原则,将维护人类利益放在首位。人工智能在进行价值排序时,应当将保障人类的生命健康权放在首位,之后再对其他权益和价值进行考虑;第三,应当维护法官的审判主体地位。编译算法和设定程序要以发挥法官的主导作用为主线,不能以各种方式分享法官审判权,牢守自己的辅助性地位,切勿僭越;第四,努力实现司法公正。这是司法伦理的终极价值,也是司法人工智能所追求的首要目标。当人工智能产品违反伦理标准时,可认定其存在产品缺陷。但当前产品缺陷仅有制造缺陷、设计缺陷和警告缺陷三种类型,可考虑在立法中增设产品的伦理缺陷单独作为产品缺陷的一种,当人工智能存在伦理缺陷时,由设计者作为责任承担主体。


(三)责任推诿的疏解


1. 确立赋权机制以消解法官卸责倾向


对法官的卸责倾向应当以积极疏通引导为原则,在智能辅助的各个关键节点对法官进行赋权,使其卸责心理在行使权利的过程中得以松懈和改变。具体而言,应当赋予法官如下权利:第一,裁判前的人工智能适用选择权。法官有权根据案件情况和实际需求决定是否使用、何时使用以及使用何种智能辅助技术。第二,决策前的人工智能建议采纳权。法官在决策前有权决定对智能推送的类案和建议是否予以采纳,以签字方式进行确认,如决定采纳智能建议则签字表示认同,如法官不采纳智能辅助建议可拒绝签字,但需写明理由,及时作出反馈。第三,担责前的解释说明权。如果错案结果是由算法本身或系统其他无法查明的原因所致,仍选择让法官承担责任未免有失公平。因此,应当允许法官进行必要的解释和说明。


2. 为法官增设智能结果审查说明义务


“义务是权利的关联词或对应词,两者相辅相成,有权利即有义务,有义务即有权利”。法官享有上述权利,就应当承担对人工智能各阶段建议的审查义务以及发现人工智能建议存在偏差和错误时的报告义务。“如果说赋权主审法官可以提升法官履职的积极性和自律性的话,明晰责任则是促使主审法官恪尽职守的一种外在强制。”当前智慧法院面临的问题在于,司法大数据中知识图谱内容的不完善以及AI算法技术阶段性发展现状。在涉及婚姻家庭纠纷、劳动争议等伦理内容较强的案件中,AI算法的机械性特征明显。因此,应当为法官增设智能结果的审查说明义务,及时反馈知识图谱和AI技术问题,以供人工智能司法产品的管理维护者及时调整。


3. 确立算法公开机制增强算法透明度


“在数字世界里,算法无处不在”,责任推诿困境的破解还需对算法加以规制。“算法的复杂性已是横亘在公众面前的一座难以逾越的高山,若再加上机器学习的复杂与多变,无疑是‘雪上加霜’。”因此,对算法不透明和难以解释的规制在于算法公开,揭开算法的“面纱”,使其暴露在阳光之下。算法公开也是查明算法错误、进行权利救济的前提,正如有学者指出,“保障我可以看得出错误,是我有更正权利的前提;而保障我知情哪些要素被用于做出决策,则是我拥有反对歧视的权利的前提。否则,信息不对称将会使这些重要的法律权利的意义被消弭”。但这并非要求对算法进行毫无限度的、绝对的公开,算法不能也不应“一丝不挂”地展现在公众面前。应当建立一种有限度的、合理的算法公开制度。具体制度内容包括:第一,算法公开的内容。应当规定算法设计者的公开义务,算法设计者必须对算法的基本运行原理、重要参数、影响因素、判断标准以及源代码进行公开。在对算法进行审查时,只有了解上述的全部要素,才能对算法是否存在歧视或运行错误进行判断。第二,算法公开的对象。算法仅限于对相关机构和法官公开,不能毫无区分地对整个社会公开。尽管将算法对社会公开在某种意义上可以使算法达到最大程度的透明,但可能造成算法公司商业秘密的泄露,其他公司在得知算法的源代码和相关要素后可以对算法进行零成本复制,对算法设计公司造成利益损害,长此以往,将导致整个行业创新活力不足、技术进步停滞。


在算法公开的基础上,法院内部还要确立算法审查与解释机制。算法的审查机构应由算法技术专家与法学专家共同构成,必要时可适当吸纳公众参加。应用算法辅助审判前,由审查机构对算法设计者公开的算法信息进行详细审查,对于算法是否存在歧视或其他缺陷作出判断,并对可能出现的风险作出评估。当裁判结果出现问题需要进行责任认定时,经法官或利益相关主体提请,审查机构展开对算法结果的检验,依照司法价值与相关法规对算法结果进行验证,认定其是否对司法公正、公平造成损害。同时,对错案结果是否由算法错误所致作出判断。最后,审查机构对其审查结果进行解释说明,此时应当超越单纯的技术解释,对算法运行的内在逻辑,尤其是特定因素对算法结果所造成的影响进行重点解释。这是因为,包括法官在内的普通民众并不具备高度的算法专业素养,很难直观地理解算法的相关技术问题,这就需要审查机构针对其解释的受众作出“可理解”的说明。


结 语


我国的智慧法院建设已经跻身世界前列,科技赋能司法审判的趋势无可回避,人工智能将在法律适用、规则选择、类案推送等方面发挥越来越重要的作用。尽管人工智能司法应用存在责任归结困境,但这无法阻挡司法数字化的浪潮,信息技术在为智慧司法建设提供技术动力支持的同时,也会生成的新的难题与风险。我们需要以一种积极的态度接纳人工智能在司法审判中的应用。坚持推动法律与科技并进,做到“让法律的归法律,让科技的归科技”,以司法实践中的现实问题为研究导向,直面人工智能司法应用中面临的责任困境,并在理论分析中选择最佳方案,以此助力实现公正司法与效率司法的动态平衡。法律追责并非最终目的,其真正的价值在于通过明晰智慧司法应用中的主体类型、权责构成,以损害的有效填补提醒各相关主体尽到必要的注意义务,克服司法的恣意以及技术的原生缺陷,从而最大限度地实现司法公平和智慧司法的长效发展。