13910160652
010-52852558
| |EN
首页 > 互联网 > 人工智能
  • 13910160652
  • ciplawyer@163.com

人工智能的治理和国际机制的关键要素

日期:2020-03-10 来源:国关国政外交学人 作者:傅莹 浏览量:
字号:

当前,由人工智能引领的新一轮科技革命和产业变革方兴未艾,正在对经济发展、社会进步、全球治理产生重大影响,未来的潜力更是有可能带来颠覆性的影响。与此同时,其风险和挑战也引起全球范围的担忧。2015年1月,包括著名物理学家霍金在内的全球数百名人工智能专家和企业家签发了一封公开信警告说,如果不对人工智能技术进行有效限制,“人类将迎来一个黑暗的未来”。由此引发的担忧和恐惧,成为媒体和社会舆论的热门话题,很多国家和组织开始研究如何构建人工智能技术应用的安全治理和相关机制。


1、人工智能的治理问题引发广泛关注


目前已有20多个国家和地区推出了国家级人工智能发展规划。2017年1月,全球行业领袖制定的《阿西洛马人工智能原则》,提出了技术发展“有益于人类”的守则;2019年4月,欧盟委员会发布了人工智能道德准则,提出包括透明性、公平性、安全性和人类监督在内的七大条件;2019年5月,经济合作与发展组织(OECD)正式通过了首部人工智能政府间政策指导方针,确保人工智能的系统设计符合公正、安全、公平和值得信赖的国际标准;2019年6月,二十国集团(G20)也出台了倡导人工智能使用和研发“尊重法律原则、人权和民主价值观”的《G20人工智能原则》;中国于同月由国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则》,提出和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理等八项原则,要求发展负责任的人工智能。


在我国,党中央、国务院高度重视人工智能发展及治理。中国领导人强调,“人工智能是新一轮科技革命和产业变革的重要驱动力量,加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题”。中国领导人明确要求,“要加强人工智能发展的潜在风险研判和防范”,“要确保人工智能安全、可靠、可控”,“要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德”。2019年7月,中央全面深化改革委员会第九次会议审议通过了《国家科技伦理委员会组建方案》等文件。会议还指出,科技伦理是科技活动必须遵守的价值准则。组建国家科技伦理委员会,目的就是加强统筹规范和指导协调,推动构建覆盖全面、导向明确、规范有序、协调一致的科技伦理治理体系。


中国在人工智能治理相关的法律法规制定上走在世界前列。按照十九届四中全会推进国家治理体系和治理能力现代化的要求,为保障我国新一代人工智能健康发展,全国人大常委会加强了这方面的研究,并且在立法过程中纳入一些比较有社会共识和相对成熟的内容。2019年8月,全国人大常委会审议通过民法典人格权编草案,其中针对收集、处理自然人个人信息作出明确规定,要求必须“征得该自然人或者其监护人同意”等,而且把个人生物识别信息也纳入保护范围。另一项重要进展是国家网信办发布的《儿童个人信息网络保护规定》,自2019年10月1日起生效。


国务院在2017年7月8日发布的《新一代人工智能发展规划》【国发〔2017〕35号】中,既提出了技术和产业体系的发展策略,又提出了伦理和治理体系的构建思路。在规划中提出了三步走战略:第一步,到2020年,部分领域的人工智能伦理规范和政策法规初步建立。第二步,到2025年,初步建立人工智能法律法规、伦理规范和政策体系形成人工智能安全评估和管控能力。第三步,到2030年,建成更加完善的人工智能法律法规、伦理规范和政策体系。在规划“保障措施”中第一条就提到:要制定促进人工智能发展的法律法规和伦理规范。


到2023年,政府将在全国布局建设20个新一代人工智能创新发展试验区,检验八项原则的实施和收集反馈。其他措施还包括提供开放平台,鼓励企业制定自己的标准,人工智能研发项目也需要遵守这八项原则。此外,目前中国的科学界和企业界在积极探索自律和监管手段,例如,成立人工智能治理研究院;在产品程序中加入“禁飞策略”来规范无人机的使用;在医疗和交通业界通过数据脱敏保护个人隐私信息;对收集数据的企业和机构提出承担保护数据的责任等要求。


人工智能技术的成长依靠的是世界各国科研人员分享思想、相互借鉴,是全球协作的产物,跨国企业构建的人工智能平台也在快速扩展。要想规范这个进程,各国需要制定互通的道德规范和行业规则。中国30多年来一直处于高速工业化的进程中,在立法和立规过程中广泛地参考了两个世纪以来世界上陆续出现的基本规则。今天,中国第一次跻身新技术进步的第一梯队,除了尽己所能地向前迈进,中国人也逐渐意识到自身肩负的参与国际制订新规则的责任。因此,中国在人工智能治理方面的努力,需要与世界其他国家和地区、包括在技术研发上领先的美国的努力,相互联通和协调。为此,中国对与各国探讨扩大共识、缩小差异,秉持开放态度。


清华大学战略与安全研究中心的人工智能治理项目小组着眼于国际共同规则,2018年7月,在世界和平论坛上提出“人工智能六点原则”,探讨人工智能综合性治理的宏观框架:一是福祉原则。人工智能的发展应服务于人类共同福祉和利益,其设计与应用须遵循人类社会基本伦理道德,符合人类的尊严和权利。二是安全原则。人工智能不得伤害人类要保证人工智能系统的安全性、可适用性与可控性,保护个人隐私,防止数据泄露与滥用。保证人工智能算法的可追溯性与透明性,防止算法歧视。三是共享原则。人工智能创造的经济繁荣应服务于全体人类,构建合理机制,使更多人受益于人工智能技术的发展、享受便利,避免数字鸿沟的出现。四是和平原则。人工智能技术须用于和平目的致力于提升透明度和建立信任措施,倡导和平利用人工智能,防止开展致命性自主武器军备竞赛。五是法治原则。人工智能技术的运用应符合《联合国宪章》的宗旨以及各国主权平等、和平解决争端、禁止使用武力、不干涉内政等现代国际法基本原则。六是合作原则。世界各国应促进人工智能的技术交流和人才交流,在开放的环境下推动和规范技术的提升。

这六项原则为人工智能国际治理的讨论和共识构建提供了一种可能,在2018年底的世界互联网大会和2019年的世界和平论坛上,国际上不少学者和企业家对此表达兴趣和重视,有机构希望进一步合作研讨。


2、人工智能国际治理机制的关键要素


国际治理机制不仅意味着共识和规则,也应包括构建能够确保规则落地的组织机构和行动能力,需要有相应的社会政治和文化环境。清华大学战略与安全研究中心正在与一些国家的学者专家、前政要和企业家一道,对这些问题进行探讨。从现实来看,人工智能国际治理的有效机制至少应包括如下五个关键:


一是动态的更新能力。人工智能技术的研发和应用进入快速发展的阶段,但是人们对未来的很多应用场景乃至安全挑战还缺乏了解和明确的认识。因而对其治理时,须充分考虑到技术及其应用还处于变化的过程中,需要建立一种动态开放的、具备自我更新能力的治理机制。


例如,当向社会提供人工智能“恶意应用”的具体界定和表述时,应该是在生产和生活实践中可观测、可区分的,在技术上可度量、可标定的。同时,更为重要的是,它应当持续更新。只有具备动态更新能力的治理机制,才能在人工智能技术保持快速发展的情况下发挥作用。


这就意味着,在推进国际治理的同时,要承认和主动适应人工智能技术的不确定性特征,做好不断调整的准备。爱因斯坦曾说,“我们不能用制造问题时的思维来解决问题”。创新技术与固有思维之间的冲突与激荡,必将伴随人工智能技术发展的过程。此种情景下的治理机制在面对各种思潮和意见的交织与反复时,也应该具备足够的包容之心和适应能力。如此,国际治理机制才能帮助人类携手应对人工智能层出不穷的新挑战。从这个意义上讲,建立一个能够适应技术不断发展的动态治理机制,也许比直接给出治理的法则更有意义。


二是技术的源头治理。人工智能的应用本质是技术应用,对其治理须紧紧抓住其技术本质,特别是在安全治理上,从源头抓起更容易取得效果。例如,当前大放异彩的深度学习技术,其关键要素是数据、算法和计算力。针对这些要素的治理可以从数据控流、算法审计、计算力管控等方面寻找切入点。随着人工智能技术的飞速发展,今后可能会出现迥然不同的智能技术,例如小样本学习、无监督学习、生成式对抗网络,乃至脑机技术等。不同的技术机理意味着,需要不断从技术源头寻找最新、最关键的治理节点和工具,并将其纳入治理机制之中,以实现治理的可持续性。另外,技术治理还有一个重要内容,就是在技术底层赋予人工智能“善用”的基因。例如在人工智能武器化的问题上,似可采用阿西莫夫制定“机器人三原则”的思维,从技术底层约束人工智能的行为,将武装冲突法则和国际人道主义法则中的“区分性”原则纳入代码,禁止任何对民用设施的攻击。诚然,实现这一点对国际治理来说是一个艰巨的挑战。曾在美国国防部长办公室工作、深度参与自主系统政策制定的保罗·沙瑞尔认为:“对于今天的机器而言,要达到这些标准(区分性、相称性和避免无谓痛苦)是很难的。能否实现要取决于追求的目标、周围的环境以及未来的技术预测。”


三是多角度的细节刻划。人工智能的国际治理须构建一种多元参与的治理生态,将所有利益相关方纳入其中。科学家和学者专家是推动技术发展的主力,政治家是国家决策的主体,民众的消费需求是推动技术应用的激励因素。这些群体之间的充分沟通是人工智能治理取得成功的基础。企业是技术转化应用的平台,社会组织是行业自律的推动者,政府和军队是人工智能安全治理的操作者,这些主体之间的充分协调则是人工智能治理机制有效发挥作用的关键。


在这个过程中,不同的群体应该以自身视角对人工智能的治理细则进行深入刻化。例如,2019年8月,亨利·基辛格、埃里克·施密特、丹尼尔·胡滕洛赫尔三人联合撰文提出,从人工智能冲击哲学认知的角度看,可能应该禁止智能助理回答哲学类问题,在有重大影响的模式识别(Pattern recognition)活动中,须强制要求人类的参与,由人类对人工智能进行“审计”,并在其违反人类价值观时进行纠正,等等。


如果能将来自不同群体的治理主张细则集聚在一起,将形成反映人类多元文化的智慧结晶,对人类共同应对人工智能挑战发挥引领的作用。面对未知,哲学家的担忧与普罗大众的恐惧一样重要,只有尽可能细致地刻划人工智能治理的各种细节,才能增强人类对未来的把控,让迷茫和恐惧转变为好奇与希望。


四是有效的归因机制。在人工智能的国际治理中,归因和归责发挥着“托底”的作用。如果不能解决“谁负责”的问题,那么所有的治理努力最终都将毫无意义。当前人工智能治理的归因困难主要源自以下一些问题:从人机关系的角度看,是否人担负的责任越大,对恶意使用的威慑作用就越大,有效治理的可能性也就越大?从社会关系的角度看,程序“自我进化”导致的后果该由谁负责?是“谁制造谁负责”、“谁拥有谁负责”,还是“谁使用谁负责”?


世界上没有不出故障的机器,如同世上没有完美的人,人工智能发生故障造成财产损失、乃至人员伤亡是迟早会出现的。我们是否需要赋予机器以“人格”,让机器承担责任?如果让机器承担最后的责任,是否意味着人类在一定范围内将终审权拱手让给了机器?目前对这些问题还没有答案,需要在实践中探索和印证归因的恰当路径。


五是场景的合理划分。现阶段对人工智能的技术应用实施治理需要针对不同场景逐一细分处理。在2019年7月的世界和平论坛上,很多学者主张从当前的应用中选择几个具体场景入手,由点及面地实验治理,由易到难地积累经验。场景至少应该从物理场景、社会场景和数据场景三个维度加以区分。考虑到人工智能技术对数据的高度依赖性,有效的场景划分有利于关注数据的影响。


划分场景也可以帮助我们更好地理解人工智能在什么情况下能做什么,一方面可以避免对人工智能不求甚解的恐惧,另一方面也可以消除一些夸大其词的判断。美国国防部前副部长罗伯特·沃克一直是人工智能武器化的积极倡导者,但是,具体到核武器指挥控制的场景上,他也不得不承认,人工智能不应扩展到核武器,以免引发灾难性后果。


对血肉之躯的人类而言,任何一项新技术的出现和扩展都是双刃剑,几乎每一次重大的技术突破和创新都会给人们带来不适与阵痛。但是,人类今日科学之昌明,生活之富足,足以让我们有信心、有智慧对新技术善加利用、科学治理,妥善应对风险和挑战。本着构建人类命运共同体的思维,国际社会应该努力构建共识,一同探索良性治理,使得人工智能技术更好地完善文明,创建更加繁荣和更加安全的世界。