13910160652
010-52852558
| |EN
首页 > 互联网 > 其他
  • 13910160652
  • ciplawyer@163.com

算法规制体系的中国建构与理论反思

日期:2022-02-14 来源:法律科学杂志 作者:许可 浏览量:
字号:

摘要:随着一系列算法新规的出台,中国算法规制体系日渐成型,但其实践脉络尚未梳理,理论症结尚未探明。立基于《关于加强互联网信息服务算法综合治理的指导意见》《互联网信息服务算法推荐管理规定》和既有监管经验,中国形成了包括“国家网信办”(规制主体)、“算法服务”(规制对象)和“巡警机制、火警机制、片警机制”(规制工具)在内的外部规制结构,以及以“算法安全”“算法公平”“算法向善”为依归的内在规制价值。尽管中国算法规制体系已经初步建立,但仍未臻完善。为此,有必要引入“算法发展”平衡算法安全,引入“权利公平”补充算法公平,引入“私人自主”调和算法向善,进而推动规制主体分工协作、拓展规制对象范围、优化规制工具,以铸就彰显中国风格、体现中国智慧的算法规制体系。


在日益由计算机所主宰的世界,作为计算机程序实现、基于数据分析、面向特定目标的一套指令,算法已无所不在,算法的影响亦“无微不至”。在此背景下,2020年以来,相继出台的《关于加强互联网信息服务算法综合治理的指导意见》(下称“《算法治理意见》”)和《互联网信息服务算法推荐管理规定》(下称“《算法推荐规定》”)备受瞩目,其不但是我国首次以“算法”为名的法律文件,更是世界范围内全面回应算法挑战的体系性尝试。鉴于这两部算法新规对于中国算法规制体系的重要意义,本文将以之为中心,深入剖析我国算法规制的形式与实质,展现其风格,并反思其可能的不足与改进之道,以期有裨于算法治理的完善。


一、中国算法规制的形式


规制的主体、对象和方式构成了规制的基本形式,通过对中国特有的监管机构、被监管主体和监管工具的剖析,我国算法规制的外部结构得以展现。


(一)谁在规制?


《算法推荐规定》第三条明确规定,国家网信部门负责全国算法推荐服务的监督管理执法工作。这里的“国家网信部门”即“国家互联网信息办公室”(下称“国家网信办”)2014年2月,中央网络安全和信息化领导小组成立,其着眼国家安全和长远发展,统筹协调涉及经济、政治、文化、社会及军事等各个领域的网络安全和信息化重大问题,研究制定网络安全和信息化发展战略、宏观规划和重大政策,推动国家网络安全和信息化法治建设。领导小组同时设立中央网络安全和信息化领导小组办公室作为办事机构,并由国家互联网信息办公室承担具体职责。2014年8月,国务院发布《关于授权国家互联网信息办公室负责互联网信息内容管理工作的通知》,授权重新组建的国家网信办负责全国互联网信息内容管理工作。


此后,国家网信办的职权从“信息内容领域”逐渐向“网络安全领域”拓展。2017年生效的《网络安全法》赋予其统筹协调网络运行安全、网络信息安全及其监督管理,工信部、公安部等部门按照各自职责负责网络安全保护工作,由此形成“1+X”的监管架构。2021年,《数据安全法》延续了这一思路,在确立中央国家安全领导机构统管国家数据安全工作的决策和议事协调基础上,赋予国家网信办统筹协调网络数据安全的监管权,工业、电信、交通、金融、卫生健康等主管部门以及公安部、国家安全部在各自职责范围内承担数据安全监管职责。


国家网信办并未止步于此。在信息技术推动下,经济业态、社会交往快速更迭,网络空间和线下空间深度融合,网络化逻辑的扩散实质地改变了生产、权力与文化过程中的操作和结果。之前被认为是“信息内容管控”或“网络安全管理”的事项,开始向“网络社会治理”迈进,数据治理、平台治理、网络生态、电子商务等个人信息保护、未成年保护、劳动者保护等议题相继涌现。不过,议题的复杂并未导致监管主体的分散,恰恰相反,实证研究表明,我国的网络治理由碎片化不断向集中化转变,从多达71个国家机关参与的监管结构,转向国家网信办、工信部、公安部为主的核心治理体系。其中,国家网信办的影响力与日俱增。据统计,1994年到2017年间,工信部共发布了98项互联网法律文件,而国家网信办在短短四年就颁行了47项。国家网信办的突出地位一方面源于对互联网领域“多头管理、职能交叉、权责不一、效率不高”以及“网上媒体管理和产业管理远远跟不上形势发展变化”的顶层判断,另一方面源于“中央网络安全和信息化领导小组”改为“中央网络安全和信息化委员会”后所享有的集中统一领导的权威地位。国家网信办作为其执行机构,得以在网络安全和信息化两端发力。基于此,虽然2021年颁行的《个人信息保护法》维持了个人信息保护多头监管的态势,但通过“规则制定权相对统一”,明确了国家网信办统筹其他部门制定个人信息保护具体规则、标准,特别是针对敏感个人信息以及人脸识别、人工智能等新技术、新应用的专门规则和标准的权力。在上述监管格局下,《算法治理意见》重申了国家网信办相对于其他政府部门的优先地位。作为最重要的算法规制机构,国家网信办的变迁历史和权力渊源必将深刻影响中国算法的规制风格。


(二)规制什么?


《算法推荐规定》看似以“算法推荐技术”为鹄的,但实际上,正如其第二条第一款所示,“应用算法推荐技术提供互联网信息服务”才适用《算法推荐规定》,换言之,“算法推荐服务”而非“算法推荐技术”才是其真正的规制对象。由此可以理解,为何第二条第二款列举的“生成合成类、排序精选类、检索过滤类、调度决策类”等算法已经远远超出了个性化推荐技术的范围。同样,第19条中的“分类分级管理制度”并不是对算法的分类分级,而是根据“算法推荐服务的舆论属性或者社会动员能力、内容类别、用户规模、算法推荐技术处理的数据敏感程度、对用户行为的干预程度”,对“算法推荐服务”的分级分类,并就具有舆论属性或者社会动员能力的算法推荐服务提供者严加规制,要求其在提供服务之日起10个工作内履行备案手续。


可见,《算法推荐规定》与其说是“规制算法”,毋宁是“规制算法服务”,这固然有着国家网信办信息内容管理上的职权考量,但在根本上,源于作为技术的算法之无法规制性。传统上,法律将技术视为外在于人的“工具”,以“技术研究与技术应用的人为分离”与“技术规制的终端责任”为原则,通过事前标准设定和事后侵权责任予以规制。然而,这一前提性预设不再适用于算法。一方面,算法是内嵌于社会并积极变革社会的构成性技术,它不但改变了生产方式和生产性资源的组织方式,而且改变了人际关系和生产关系。另一方面,算法具有“不可感知性”“不可计算性”和“人为不确定性”,无论法律如何缩减其风险的随机性,其剩余风险永远存在,法律和风险在时间组合、知识结构上的差距,使法律并非最佳解决方式。故此,只有摈弃单纯规制算法技术的原子论思路,从系统论出发,将算法所栖身的演化体系、组织形态、应用场景一并纳入规制,才不会陷入“只见树木,不见森林”的困境。据此,算法规制一方面是场景化的,依循使用主体、针对对象、所涉事项,因地因时因人而异地采用不同的规制方法;另一方面,算法规制亦是整体性的,立足于法律系统与算法系统的二元性,发掘出两者冲突与耦合的互动机制及一般原理。场景化和整体性兼备的规制思路,形成了“总体计划、分步监管”的中国算法特有路径。


(三)如何规制?


面对“算法服务”这一全新事务,《算法推荐规定》在传统的“巡警(Police Patrols)机制”和“火警(Fire Alarms)机制”之外,创造性地发展出“片警机制”,形成了融三种机制于一体的规制体系。


“巡警机制”意味着监管机构积极、主动、集中地履行职责,在事前、事中发现和纠正违反立法目标的行为,并通过实时性执法,阻止违法行为的发生或升级。《算法推荐规定》第24条中“网信部门会同有关主管部门开展算法安全评估和监督检查工作,对发现的问题及时提出整改意见并限期整改”便是典型的巡警机制。不过,与域外“算法影响评估”(Algorithm Impact Assessment)不同,中国的“算法安全评估”在应用领域、协调机制、评估标准和评估工具等方面均有所不同,后者强调由监管机构牵头组织建立专业技术评估队伍,深入分析推荐算法的机理,评估算法设计、部署和使用等应用环节的缺陷和漏洞,研判意识形态、社会公平、道德伦理等安全风险,提出针对性应对措施。此外,“算法安全风险监测机制”亦是巡警机制的重要一环。依据《算法治理意见》,监管机构对算法的数据使用、应用场景、影响效果等开展日常监测工作,感知算法应用带来的网络传播趋势、市场规则变化、网民行为等信息,预警算法应用可能产生的不规范、不公平、不公正等隐患。

“火警机制”意味着监管机构建立一套实体规则和程序体系,为民众提供事后投诉、举报的渠道,通过分散化的“私人执法”(private enforcement)实现救济并处罚违规者。就此而言,监管机构并不去嗅探火苗,而是在街角放置火灾报警器,建造邻里的消防屋,尽快响应警报以消除危险。《算法推荐规定》大量设置此类机制,特别是赋予用户宽泛的选择权、拒绝权、解释权和对用户标签的查阅、更改、删除权,要求算法服务提供者接受社会监督,建立用户申诉渠道和制度。《算法治理意见》则提出着力解决网民反映强烈的算法安全问题,严厉打击网民举报并查实的涉算法违法违规行为。


巡警机制和火警机制各有利弊,前者需要监管者具有与之相应的资源和能力,即不会遗漏违法行为又不至于被被监管者俘获;后者需要民众获得充分、有效的激励发出异议,既不会沦为沉默的大多数又不至于滥用其权利。无论如何,这两者对于算法规制而言,依然不够,因为其并未反映出算法风险的内在属性。那么,何为算法特有的风险?《算法霸权》直指实质:算法就像上帝一样晦暗不明,只有该领域最高级别的牧师,才明白模型如何运作。“算法黑箱”(algorithmic black-box)由此成为算法规制的出发点。故而,《算法推荐规定》将“算法备案”作为打开黑箱的首要之举。创新性技术的备案制度其来有自,中国人民银行《关于规范金融机构资产管理业务的指导意见》、国家网信办《区块链信息服务管理规定》对智能投顾和区块链技术的备案要求均是典型例证。


作为一种行政事实行为,算法备案不会对备案人的权利义务产生直接影响,也不意味着监管机构对备案事项真实性、合法性作出行政确认,若后续审查过程中发现备案人使用的算法与备案事项不符,有权要求其改正并追责。就此而言,算法备案旨在通过立此存照、存档备查,获取算法服务中具有潜在危害的算法系统资讯,以固定问责点,从而平衡了政府监管与行业自律、信息披露与商业秘密、源头治理与事后追责的多重诉求。本文将这一监管措施称为“片警机制”,籍此说明监管机构利用治理耳目和情报网络,以信息充分采集为基,发挥服务、防范、管控的三重职能。


算法备案制度的关键在于备案范围。《算法推荐规定》出于规制“算法推荐服务”而非“算法推荐技术”的考虑,排除了“算法研发者”的备案义务;进而,通过算法分级分类,将备案主体限定在具有舆论属性或社会动员能力的算法推荐服务提供者。其不但与我国《网络安全法》第37条采用“关键信息基础设施的运营者”来锚定“重要数据”边界的原理相吻合,也与《数据安全法》中数据分级分类的思路如出一辙,即以数据/算法所引发的外部风险,而非数据/算法自身风险为判断基础。最后,《算法推荐规定》一一列举出服务提供者的名称、服务形式、应用领域、算法类型、算法自评估报告、拟公示内容等信息作为登记事项。较诸主张备案内容应包含算法的原始代码、基本原理、预期目的的观点,《算法推荐规定》更加审慎,其涵盖了算法应用是否与目的相称及其可能引致的公共利益、公民权利风险的评估信息,但将算法数据组、算法模型性能、算法设置逻辑等涉及商业秘密、专利权的内容排除在外。


片警机制不限于算法备案,倘若我们从熟人社区管理的角度去观察既有网络规制,就能发现基于信息传递的“约谈制度”和“声誉机制”同样是其重要体现。互联网信息内容监管领域的约谈制度由《互联网新闻信息服务单位约谈工作规定》所建立。与监管者一贯强硬的面貌不同,“片警”的约谈以柔性形式发挥着沟通、说服、警示、教育、劝诫的功能,督促大型互联网企业共担信息内容监管责任。与此不同,凭借着大规模曝光通报违法违规的企业,威慑企业运营最为核心的利益——用户流量,“声誉机制”已成为主要执法工具。例如,截至2021年9月,工信部已经发布了19批侵害用户权益行为的APP通报,最近一期通报数量多达334款。


二、中国算法规制的实质


如果说国家网信办综合利用巡警机制、火警机制和片警机制实施算法服务监管是中国算法规制的外在形式,那么我们还需进一步发掘中国算法规制的实质目的,恰如德国法学家耶林所言:“寻求目的是法学的最高任务。”也正是在此意义上,算法规制的中国风格才得以最终凸显。


(一)算法安全


在《算法推荐规定》中,“安全”出现了13次,而在《算法治理意见》中,“安全”一词更是高达36次之多。相较之下,根据约宾(Jobin)等人对全球84种算法规范文件的归纳,大多数文件支持的共识价值,从高到低分别是透明(Transparency)、公正(Justice)、不作恶(Non-maleficence)、可问责(Responsibility)与隐私(Privacy)。可见,对安全价值的强调,中国可谓独树一帜。然则,何为“算法安全”?


人类的历史就是一部努力消除危险和将危险最小化,同时增加安全和将安全最大化的历史。早在古希腊时代,“安全”就用来表达一种确定性、可靠性和不受威胁的状态,《周易》中的“无危则安,无损则全”亦异曲而同工。然而,随着高科技时代的来临,与“安全”相对的“危险(danger)”逐渐被“风险(risk)”所取代。危险往往是局部性、个体性、自然的,风险则是整体性、社会性、人为的。风险的本质并不在于它正在发生,而在于它可能会发生,它与危险相关联,但它本身并不是危险,而是因不可控制所引发的焦虑与恐惧。因此,风险既是实在的,又是被社会感知和结构建构,既是在技术应用过程中出现的,又是在赋予意义的过程中被生产出来的。面对未确定的、充满危险的可能性,不论是从保卫自身安全出发,还是基于对民众的安全承诺,国家都必须改弦易撤,从事后的个体主义安全范式向事前的整体主义安全范式转变,“综合安全观”由此成为算法安全的宏观指引。


一方面,对算法安全的精准理解只有在与其他安全联系在一起时才能获得,局限于单一层次审视算法安全将招致严重的曲解。据此,从信息安全到网络安全,再到数据安全、算法安全,不过是随技术—经济—社会演进而不断演绎的安全领域拓展,四者同出而异名。算法安全牵一发而动全身,与其他安全事项彼此交错、互补、融合,共同成为网络空间整体安全。推而广之,算法安全亦与政治安全、国土安全、军事安全、经济安全、文化安全、社会安全、科技安全并列且相互支援,组成了我国总体安全体系。另一方面,对算法安全的全面认识必须跳脱出技术安全的束缚,迈向更开放、更包容的算法安全界定。这里,我们尝试着将算法安全拆解成如下三重含义:


其一,算法自身安全,即避免算法设计缺陷导致其不能稳定、准确地实现其目标的风险,包括但不限于可靠性、准确性、完备性的性能缺陷或结构性缺陷,所依赖的数据来源缺失或偏差。英国信息专员办公室(ICO)《关于AI审核框架的指南:咨询指南(草案)》就人工智能算法的安全性提出如下要求:(1)算法的构建和部署方式;(2)算法组织部署系统的复杂性;(3)风险管理能力的成熟度;(4)处理的性质、范围、背景和目的。算法自身安全一向是域外立法关注的重点所在,相反,算法新规对此着墨不多,仅要求算法推荐服务提供者落实算法安全主体责任,建立健全算法机制机理审核、安全评估监测等管理制度,配备相适应的专业人员和技术支撑。


其二,算法安全可控,即在人机互动层面上防范算法脱离人的控制,保障人拥有充分自主决定权。从“算法工具论”到“算法权力论”是这一层算法安全含义的理论基础。为了驯服与消费者“主权”和国家主权相竞争的算法权力,算法新规从如下方面着手:(1)促进算法公开,通过“个体赋权”限制算法权力,督促算法服务提供者及时、合理、有效地公开算法基本原理、优化目标、决策标准等信息,做好算法结果解释;(2)深入算法架构,通过“穿透式监管”限制算法权力,调控算法中关键要素和架构的人工决定策略(如内容去重、打散干预、用户标签等),影响算法结果生成;(3)履行算法登记和日志检查,通过“向监管机构透明”限制算法权力。参考欧盟《人工智能法案》,监管机构有权访问算法系统数据(包括训练集、验证集和测试集)、源代码,并可以通过技术手段对算法进行分析测试,从而实现算法审查和算法问责。


其三,算法应用安全,即防控和管理因算法使用引致的意识形态、经济发展、社会管理、国家主权等宏观层面的风险。保护“受保护的物体”免受遭损害是“技术安全”最原始的含义之一。当今,作为通用性技术的算法向经济、社会、政治、文化各领域弥散,法律不得不在综合安全观的视野中,立足社会有机整体,从算法自身规制迈向算法活动规制。职是之故,《算法治理意见》尤其强调防范算法滥用风险,维护网络空间传播秩序、市场秩序和社会秩序,防止利用算法干扰社会舆论、打压竞争对手、侵害网民权益等行为。《算法推荐规定》禁止利用“算法推荐服务”传播法规禁止的信息,实施流量造假、流量劫持、屏蔽信息、过度推荐、操纵榜单或干预信息呈现,以及自我优待、不正当竞争、影响网络舆论、侵犯他人合法权益的活动。


(二)算法公平


“公平公正”被《算法推荐规定》列为算法的基本原则,但何为公平,难免言人人殊,以至于有学者给出了21种不同的公平定义。梳理其不同解释,大致可分为个体公平和群组公平、过程公平和结果公平四组两对概念。其中,“个体公平”,意即算法能够真实、准确地表征个体,不因个人内在或后天的特征而对个人产生任何偏见或偏袒;“群组公平”,意即接受正分类或负分类的人的比例与整个人口统计是相同的,旨在平等地对待所有群体,它要求通过算法而进行的决策结果在受保护群体与非受保护群体之间的比例相等;“过程公平”,意即算法平等对待所有参与者,各方享有平等的机会、条件和权利;“结果公平”,意即算法应当从参与者所拥有份额的相对关系出发,确保有价值事物得到平等分配。基于这一框架,美国对算法公平的规制侧重于群组公平、过程公平和结果公平。联邦贸易委员会(FTC)评估非法歧视的算法时,会查看模型的输入数据是否包含基于种族的因素或此类因素其他数据(如人口普查区),以防范基于种族、肤色、宗教、国籍、性别、婚姻、年龄而产生的群体歧视;同时,FTC也会审查算法的输出(如消费者的信贷利率),以确定模型是否对受保护群体产生不良影响。与之类似,英国ICO根据《2010年英国平等法案》(UK Equality Act 2010),通过排除特殊身份特征确保群组平等,通过确保模型预测与事件发生的实际可能性之间的均等校准(calibration)实现过程公平,通过监控受保护群体达致结果公平。


我国的算法公平有着微妙的不同。首先,其主要体现为“个体公平”。例如,在滴滴公司顺风车服务中,司机利用算法对女性乘客添加不良标签就曾引发社会争议,为此,《算法推荐规定》明确禁止设置歧视性或偏见性用户标签,避免有损个体人格尊严。其次,其主要指向了结果公平。面对“大数据杀熟”的聚讼纷纷,《算法推荐规定》禁止基于消费者偏好、交易习惯等特征,在交易价格等交易条件上实行不合理的差别待遇。在经济学上,因人而异的“价格歧视”是否造成社会总福利损失,目前尚无定论。但对于消费者而言,价格歧视使企业不公平地攫取了不合比例的“消费者剩余”。正如“最后通牒博弈”研究所发现的,尽管不公平的分配依然有利于一方,但对接受者来说,这有悖于人类的差异厌恶偏好和互惠偏好,激发了不公平感。最后,其坚持包容性,针对特定弱势群体实现群组公平。为了帮助困在系统内的平台经济新型劳动者,《算法推荐规定》突破了算法推荐服务的范围,将“算法决策”类纳入其中,规定算法服务提供者向劳动者提供工作调度服务的,应当建立完善平台订单分配、报酬构成及支付、工作时间、奖惩等算法,履行劳动者权益保障义务。


(三)算法向善


尽管“向善”(Beneficence)价值被有些算法规范文件提及,但其含义却纷繁芜杂,诸如提升人类福祉、繁荣、幸福、和平、创新社会、生态环境、普遍自由,不一而足。总体而言,“向善” 蕴含着人与自然环境和所处社会关系中各种需要得到满足的正向价值。2021年9月发布的中国《新一代人工智能伦理规范》将“增进人类福祉”列为首要原则,提出遵循人类共同价值观,遵守国家或地区伦理道德。《数据安全法》第28条针对“数据新技术研究开发”,增设“有利于促进经济社会发展,增进人民福祉”的特别规定。在此基础上,算法新规将“向善”伦理注入其中,成为中国的算法向善原则,其具体表现为:


其一,算法为内容服务。算法服务提供者应坚持正确政治方向、舆论导向、价值取向,优化算法机制,提高正能量传播的精准性和有效性。与之前“不作恶”(违法、不良信息管控)消极义务相比,算法向给算法服务提供者善苛加了一系列积极义务,例如在首页首屏、热搜、精选、榜单类、弹窗等重点环节积极呈现符合主流价值导向的信息内容,优化检索、排序、选择、推送、展示等规则的透明度,避免个性化信息推送导致的“信息茧房”。其二,算法为未成年人服务。算法服务提供者应通过开发适合未成年人使用的模式、提供适合未成年人特点的服务等方式,便利未成年人获取有益身心健康的信息内容,不得推送可能引发未成年人模仿不安全行为和违反社会公德行为、诱导未成年人不良嗜好等可能影响未成年人身心健康的信息内容,不得诱导未成年人沉迷网络。其三,算法为良好生活方式服务。算法服务提供者应定期审核、评估、验证算法机制机理、模型、数据和应用结果,不得设置诱导用户沉迷或高额消费的算法模型。其四,为落实上述要求,亟待建立算法伦理审查制度。据此,算法服务提供者可设立一个独立于现有职能部门,由伦理专家、技术专家、法律专家、公众代表组成的算法伦理委员会。在对企业或社会可能产生重大影响的算法部署之前,委员会应率先启动伦理审查,基于“算法向善”的原则,识别、预防、消除相关应用对基本价值观的背离。通过全面评估算法的敏感用途、偏差和公平、可靠性和安全性、人的注意力和认知、人与算法的互动与协作等内容,将发展与治理思维模式从命令—控制转向适应性治理。


三、中国算法规制体系的检视与完善


对算法规制形式与实质的刻画,展现了中国算法规制体系的基本面貌。可毋庸置疑,正如算法应用方兴未艾一样,对其规制也是初步的。为此,我们不妨借箸代筹,就我国算法规制体系的完善略作构想。


(一)算法发展对算法安全的平衡


习近平总书记在2016年“全国网络安全和信息化工作会议”指出:网络安全是动态的而不是静态的,相对的而不是绝对的,一定避免不计成本追求绝对安全,那样不仅会背上沉重负担,甚至可能顾此失彼。这里的“彼”就是信息化以及更广泛的社会发展。正因如此,无论是《数据安全法》还是《个人信息保护法》,均秉持安全与发展并重的原则,坚持“数据安全与利用”“个人信息保护与利用”的双目标。反观当前的算法规制,算法安全几乎成为压倒性任务,忽略了算法发展对人工智能产业等社会经济裂变的颠覆性作用。尽管《算法治理意见》中提及“大力推进我国算法创新研究工作,保护算法知识产权,强化自研算法的部署和推广,提升我国算法的核心竞争力”,但这一表述限于“算法技术研究”,而没有意识到:正如算法规制以算法服务为中心,算法发展同样依托于生机勃勃的算法应用生态,离开商业化的土壤,算法技术研究如无本之木、无源之水。算法发展对算法安全的再平衡可在如下层面展开:


一方面,规制主体的协同治理。算法规制兼具社会性规制和经济性规制的混合性质。其中,算法安全规制更像前者,主张规制基于立法授权和宽泛的法律原则,保护经济社会中的公民和弱势群体,维护公共利益,实现善治;算法发展规制更像后者,主张规制基于可预期的法律规则,通过信息工具和市场干预,推动私人之间合作共赢,实现效率最优。为了同时进行这两种规制,美国将其交由负责消费者保护和市场秩序监管的联邦贸易委员会(FTC),欧盟《人工智能法案》亦将其交由成员国多元化的市场监督机构。相形之下,国家网信办的发展历程与职能定位清楚地表明,其主要是一个社会规制机构,无力也无意愿准确评估和审慎判断规制措施的经济后果。其在算法规制中的主导性,难免使之过分倚重信息安全,可能戕害算法发展。鉴于算法所负载的多元规制目的无法割裂,国家网信办与其他机构应共同进行这一合作事业,由市场监管、工信、科技等经济性规制机构负责攸关企业经营活动的监管,并在法律文件制定及实施中彼此分工,协同共治。


另一方面,规制工具的风险进路。“风险进路”(risk-based approach)旨在识别和评估被规制活动可能引发的风险,设置与之相适应的保护水平与规则。它所具有的动态性、多层次和可扩展性,减轻了合规成本和行政负担,成为平衡安全与发展的有力工具。欧盟《人工智能法案》即采取“风险进路”,将人工智能应用区分为不可接受风险、高风险、有限风险以及最小风险四种类型,再以“回应性规制方法”匹配规制措施。与之不同,虽然《算法推荐规定》中“算法分类分级”含有风险进路的意味,但仅在算法备案义务上有所区隔,其他义务均无差异地一体使用,不免规制失焦。当然,算法分级分类无法毕其功于一役,只能在算法场景中逐一开展。就以算法推荐服务为例,首先可分为“新闻内容信息算法推荐”和“产品服务信息算法推荐”,前者关乎政治文化、意识形态,并可能引发认知和表达的极化,宜重点规制;后者系商业广告,具有经济合理性和消费者便利性,宜放松规制。其次,在产品服务信息算法推荐中涉及差异化定价,宜在考量定价策略是基于成本还是支付意愿,是否符合行业管理和大众预期,是否履行告知义务等情形加以审慎规制。最后,在算法推荐产品服务信息后衍生的自动化决策,因其直接影响个体权利义务,应严格规制。


(二)权利公平对算法公平的补充


党的十八大报告指出:“逐步建立以权利公平、机会公平、规则公平为主要内容的社会公平保障体系,保证人民平等参与、平等发展权利。”遗憾的是,我国算法公平尚未充分汲取上述公平理念。须知,公平的前提是“所有人都享有无条件受到某种程度保护的权利”。 “权利进路”(right-based approach)由此成为算法规制的核心内容之一。权利公平将在如下方面弥补当前算法公平的缺失:


第一,拓展算法规制的对象。权利公平蕴含着权利普遍化的诉求,权利人不仅是“受保护消费者”(经济性规制下)或“被服务的国家顾客”(社会性规制下),也是积极伸张权利的具有使命感的公民。如果说“算法社会(Algorithmic Society)”是一个算法制定并落实社会、经济决策的社会,那么实践中对个体影响最深的算法莫过于国家机关的自动化行政,如何通过公民权利限制国家算法权力,由此成为算法规制的关键问题。以抗疫利器“健康码”为例,作为个人获得出行、复工资格的法定证明,国家机关先将评判标准程式化,相对人在线提交信息并申请后,系统自动分配不同颜色标识的二维码,此可谓“自动化行政”的典型形式。2018年以来,美国纽约市、华盛顿州、加利福尼亚州以及加拿大陆续颁布《算法问责法》《自动化决策指令》,均以“行政机构的算法决策”为规制对象。这与我国将“私营部门的算法推荐”作为规制重心形成了鲜明对比。容易想见,在国家机关自动化行政的过程中,算法偏见、算法黑箱、结果失控的痼疾依然如故,立法者应直面这一重大风险,将算法法规统一适用于国家机关。就此而言,《个人信息保护法》可资参照:其开风气之先,一体规制私营部门和国家机关,除另有规定外,均履行同等的个人信息保护义务;不仅如此,国家机关还须额外遵循合法行政、程序正当和比例原则等法治国的基本原则。


第二,增设过程公平规则。如前所述,我国算法公平侧重于结果公平,过程公平规则寥寥。可事实上,没有过程公平,就不可能有结果公平,因为“过程”有着塑造结果的能力。算法的过程公平即个人能够平等且有意义地参与到算法活动全过程之中,其体现在:(1)决策算法选择的公平性:算法使用者应说明为何采取算法,并简要说明优化目标。例如,信用分数场景下,算法服务提供者可说明引进算法有益于准确评估解释对象的财务状况,并以更具针对性的方式决定借贷;在国家机关部署自动化决策算法之前,公众应有权了解、评估和参与其对于自身和社会的影响。(2)算法输入数据的公平性:如数据特征选择的个人自主性、数据特征可信度、数据特征的相关性等;(3)在自动化行政的场景下,算法结果的有效性以通知与申辩的履行程序为前提,允许民众提出质疑,并有权在专业审计人员的协助下审查算法并及时纠错。

第三,提升群组公平保障。尽管算法新规已将消费者群体和劳动者群体纳入,但对特殊身份群体保护仍属空白。事实上,基于民族、种族、疾病、残障、性取向、宗教信仰等形成的错误归类,不仅导致特定个人在单项事务遭受不公,更延续了受拒斥者所在群体的屈从地位。作为真实社会的镜像,算法在固化显存社会偏见的同时,还会放大偏见的影响力和范围,形成系统性歧视。《个人信息保护法》已将“特定身份信息”列为“容易导致人格尊严侵害的敏感个人信息”,予以特别保护。算法规制可借鉴相应规则,除具有特殊目的、充分必要性和当事人明确同意外,一般性禁止算法处理类似信息,以实现基于身份中立的平等权。


(三)私人自主对算法向善的调和


算法向善是我国依法治国和以德治国相结合的重要体现,但在功能分化的现代社会,作为具有不同性质的社会规范,法律和道德的相辅相成必须以保持自身功能独立为前提。就此而言,算法向善面临着三重挑战:其一,道德法律化的挑战。法律并非自给自足之物,其可以也应当援引道德等法外理由证立其正当性,但从分工来看,法律中的道德一般限于维系社会所必需的“基本道德”,即哈特所言“最低限度的自然法”,另一方面,根据“只有法律才能改变法律”的原理,道德的法律创制首先要遵循普遍性、明确性、不矛盾、稳定性等法律自身“道德”。以此观之,与“不作恶”原则相比,“向善”代表超越性的道德准则,超出了维系社会生活必要条件之需要,同时,“向上向善”“沉迷”“正能量”等概念高度抽象且难以确定。其二,法律父爱主义的挑战。所谓“法律父爱主义”,即国家为了增加当事人利益或使其免于伤害的善意考虑,不顾其主观意志而限制自由的行为。《算法推荐规定》不但对未成年人、消费者、劳动者等“弱而愚的人”示之法律父爱主义,而且进一步延伸到一般公民之上。防范“用户沉迷或者高额消费”的表述,与个人就无害他人的生活方式之自我决定相冲突。在实体法上,该“自我决定权”已被《宪法》中“个人尊严条款”和《民法典》中“一般人格权”所肯认。“通向地狱的道路往往是善意铺就”,不加限制的法律家父主义,将导致“不高尚”的人接受强制教育和惩罚,在压力之下,人们往往会趋向伪善或加倍放纵。其三,算法超助推(hypernudges)的挑战。作为一种规制工具,助推(nudge)是一种特殊形式的“选择架构”,以可预测的方式改变人们行为,而不禁止任何选择或显著改变经济后果。推人向善的算法借助无所不包的大数据和深度学习技术,精确理解个人行为的相关性及其弱点,以非理性、无意识的方式改变个人行为。通过算法的超助推,将个人推向了被操纵的客体地位,缺乏主体性的行善绝非真善。


面对上述挑战,亟待“私人自主”来调和,即向算法注入个人尊严和“把人当成人”的理念,形成“人化的算法”(Humanized Algorithm)。首先,算法“向善”的正当性来自促进人们相互信任、满足共同期望和实现社会团结。故此,算法的“善”并非监管者的政治决断抑或技术专家的智识判断,而是关乎普罗大众的价值选择,当涉及重大伦理问题时,需充分咨询公众意见,在最大范围内达成社会共识。其次,法律应从“何为向善”中适度抽离,而聚焦于由谁、按照何种程序作出决定的问题上,这要求国家退回到程序和组织的元层面,退回到决定权分配和再界定上,以促使分散的社会关系实现“受规整的自治”(regulated autonomy)。为此,法律应尽量减少“实体权利义务”模式,而是通过对具体场景中伦理决策的议程设定,为个人、技术团体、行业协会、私营部门等构建伦理商谈的正当秩序。最后,在规则适用上,“算法向善”不能作为行政行为、司法裁判和算法服务提供者合规的直接依据,而应经由法律解释及漏洞补充发挥作用。对此,最高法院《关于深入推进社会主义核心价值观融入裁判文书释法说理的指导意见》提供了良好指引:社会伦理融入法律应正确运用文义解释、体系解释、目的解释、历史解释的方法,充分说明其在个案中的内在要求和具体语境,推动社会稳定、可持续发展。


(四)中国算法规制体系的愿景


算法并非洪水猛兽,事实上,它能够协助私营部门和公共机构决策,为个人提供更个性化的服务,为教育和科学研究带来新机遇,在公共安全、医疗卫生、可持续发展等领域大有可为。正因如此,算法规制的目标与其说是遏止迈向算法社会的进程,毋宁是重建国家、社会、民众对算法的信任。信任既是普遍主义的,也是地方性的。因而,我们不但要借鉴已被各国广泛接受的原则,也要全面回应本土特有的关切。基于此,我国可以“算法安全和算法发展”为纲,以“人化的算法”为魂,以蕴含权利公平的“算法公平”为体,以“算法透明”为用,采用“基于风险”的规制路径,在国家网信办和其他监管机构的分工协作下,实现私营部门和国家机关的一体监管与问责,为未来的智能社会建构稳固的法律之基。


四、结 语


中国的算法规制刚刚开始,如《算法治理意见》所计划,将利用三年左右时间,制定一系列算法法律文件,逐步建立治理机制健全、监管体系完善、算法生态规范的算法综合治理格局。在世界范围内,这都是从未有过的尝试。在未知领域的探索,往往“道以多歧亡羊”。为此,中国算法规制体系的发展,亦应秉持多方参与的互联网治理原则,就重大问题集思广益、权衡利弊、锚定立场,以期“壹引起纲,万目皆张”,最终铸就贴合数字经济发展、回应数字社会关切、维护数字中国利益、彰显中国智慧的算法规制体系。

    相关文章
    本文暂无相关文章