英国政府高度重视人工智能对经济和社会发展的巨大潜力。此前已发布五份针对或涉及人工智能的政府报告,抢抓机遇并应对挑战。
2018年4月16日,英国议会下属的人工智能特别委员会发布长达180页的报告《英国人工智能发展的计划、能力与志向》(AI in the UK: ready, willing and able?),认为英国在发展人工智能方面有能力成为世界领导者。
英国全球一流的人工智能公司,活跃的学术研究文化,生机勃勃的创业生态系统以及法律、伦理、金融和语言学等方面的能力汇聚,为其发展人工智能创造了独一无二的的条件。报告旨在支持英国实现人工智能对社会和经济的巨大潜力,同时保护社会免受潜在威胁和危险。
报告几乎涵盖了人工智能的方方面面,从其概念、设计、研发和其对工作、生活、医疗等领域的影响以及应对人工智能威胁、塑造人工智能未来等层面进行了有益探索。报告呼吁英国政府制定国家人工智能战略。
对于舆论热炒的人工智能监管,报告认为当前不需要对人工智能进行专门监管,各个行业的监管机构完全可以根据实际情况对监管做出适应性调整。相反,报告呼吁英国政府制定国家层面的人工智能准则(AI Code),为人工智能研发和利用设定基本的伦理原则,并探索相关标准和最佳实践等,以便实现行业自律。
笔者通读报告,总结出了英国议会眼中的人工智能法律政策十大热点问题及相关建议,希冀为国内相关讨论提供借鉴。
1、促进数据访问和共享 最大化公共数据的价值
数据对于人工智能进步的重要性不言而喻。数据是机器学习的核心,有数据,就有巨大优势。这意味着硅谷的科技巨头在开发、应用人工智能系统方面具有巨大优势。相反,中小企业和公共部门则毫无优势。在此背景下,数字技术和人工智能相关的数据争议将持续复杂化。
首要的是区分数据和个人数据。在数据的问题上,所有权的概念与数据不相容,以打电话数据为例,参与的各方都可能主张所有权。因此在法律规则层面使用数据保管和控制等概念更为明确。
在促进数据访问和共享方面,欧盟GDPR规定了数据可携带权,企业必须向用户免费提供其全部的个人数据的副本,这可以避免“锁定”效应,方便用户无缝切换到其他服务,从而促进竞争。此外,医疗、交通、科学、教育等领域存在大量公共数据,自由、公开获取公共数据对于最大化这些数据的价值是极为重要的。
在最大化利用数据的同时,必须最小化对隐私的侵犯。所以需要在数据开放和数据隐私之间寻得平衡。匿名化是有效的技术措施。虽然去识别化后很容易再识别(比如通过与其他数据集交叉引用),但英国数据保护法已将再识别规定为犯罪。
为了促进数据访问和共享,英国议会提出如下建议:
1.成立数据信托(data trusts),加强数据访问和共享。
2.开放公共数据,同时进行匿名化处理,以维护安全和隐私;公共数据的开放可采取单点分享模式,政府AI办公室和数据伦理和创新中心负责制定需要遵守的适当条款和条件,保护隐私。
3.完善和加强个人控制数据的法律和技术机制,实现安全分享个人数据,开放银行数据机制(Open Banking,英国为了促进银行金融服务创新采取的一种金融数据分享机制,通过API工具允许用户将其金融数据安全地分享给第三方)可资借鉴。
2、实现可理解、可信赖的人工智能 避免在特定重大领域采用“黑盒”算法
让人工智能可被开发者、用户、监管者等理解是重要的。然而深度学习系统也就是所谓的“黑盒”系统给理解人工智能提出了挑战。在数据输入和输出的多个分层间,开发者也不清楚到底是哪个因素导致系统做出特定决策。
解决人工智能系统的不可理解性(intelligibility)的一种方案是增加系统的技术透明(technical transparency)。比如将人工智能系统的源代码开放。透明包括事前的透明和事后的透明,不能一味追求事前的透明。
英国议会认为,就如今特定类型的人工智能系统而言,完全实现技术透明是困难的,甚至是不可能的。然而,在安全攸关的特定场景中,技术透明是必须的。这些领域的监管者必须强制要求使用更加透明的人工智能系统,为此可以牺牲系统的能力和准确性。
另一种方案是可解释性,意味着人工智能系统可以解释其决策背后的数据和逻辑。很多企业包括谷歌、微软等都致力于开发可解释的机器学习系统。欧盟GDPR第22条提出的“解释权”某种程度上可以促进解决可解释的人工智能系统的问题。英国数据保护法吸收了“解释权”并更进一步地要求企业将自动化决策的结果告知用户,而且用户有权请求重新考虑该决策或不被算法决策。
英国议会认为,如果人工智能想要成为人类社会中完整且可信赖的工具,研发可理解的人工智能系统就是根本性的。如果人工智能会对个人生活产生重大影响,除非其能够为其决策提出令人满意的解释,否则就不应采用此种系统。就深度神经网络而言,由于不可能实现可解释性,故在找到替代性方案之前应推迟将其用于特定重大领域。数据伦理和创新中心应和相关机构一道制定可理解的人工智能系统的要求指南,并指导企业贯彻指南和相关标准。
3、理解算法歧视,探索针对 训练数据和算法的审查、测试机制
新一代人工智能的核心是机器学习,体现为从大量的训练数据集中自动发现模式。如果数据的代表性不足或折射出歧视,则将来决策也可能代表性不足或具有歧视。歧视可能通过多种方式潜入系统,比如可能来源于训练数据、处理的数据或创建算法的人和机构,也可能由于不准确、不完整的数据或算法自身的偏差。如果数据库不准确地反映了现实,或准确地反映了社会中不公平的一面,同样可能产生歧视。
英国议会建议,需要采取更多措施确保数据真正具有代表性,能够代表多元化的人群,并且不会进一步加剧或固化社会不公平。研发人员需要更加深入地理解算法歧视的问题。必须确保处理的数据尽可能平衡且有代表性,研发团队的人员构成是多元化的,能够代表不同社会群体。除了数据歧视的问题,研发人员还必须考虑他们自己有意或无意带入系统的偏见——人类开发者为机器学习算法设置了参数,他们做出的选择不可避免地折射出他们的信念、假设和偏见。这就需要确保研发人员具有多元的性别、种族和社会经济背景并遵守伦理行为准则。
英国议会还建议配置权威的工具和系统,以便审查、测试训练数据,从而确保其足以代表不同群体,确保当被用来训练人工智能系统时,不会导致歧视性决定。
4、警惕数据垄断 更新伦理、数据保护和竞争框架
数据访问和控制是现代人工智能进步的关键要素。数据网络效应(data network effect)可导致特定企业创建私人所有的数据库,占据市场优势。然而,对于数据垄断,人们众说纷纭,未有定论。国际智库数据创新中心认为不存在所谓的基于数据的垄断,赢家也不可能通吃。
英国议会认为,数据的垄断表明需要更强健的的伦理、数据保护和竞争框架。并督促政府和竞争执法部门积极审查在英国的大型科技公司的数据使用及潜在的垄断问题。
5、研究并应对法律责任挑战 阐明责任规则及其适用
新技术尤其是人工智能的广泛研发和使用给既有法律和监管框架提出了挑战。比如可能挑战现在的私法概念(合同或侵权)下的法律义务的基础。一个重大的问题是,谁应当为借助或由人工智能做出的决定负责。这可能涉及发放抵押贷款、诊断疾病或自动驾驶汽车做出的决定。最重要的问题可能还是涉及自主机器(autonomous machines)的事故的责任,因为按照既有责任规则,法律主体(自然人或公司)将最终承担责任。
解决法律责任问题是重要的。因为想让人工智能被广泛采用,就必须首先跨越法律责任的障碍。而且法律责任框架和保险对于允许这些系统被实际使用是至关重要的。法律责任和保险的缺失将阻碍技术的采用。
然而,对于是否需要制定新的法律责任规则,各方众说纷纭。有人认为人工智能会给基于合理期待和可预测的责任规则提出重大挑战。另有人认为基于过错的责任体系,依赖于因果链条,将难以适用,因为算法缺乏“合理的可预见性”。但也有人认为法律只适用于人类及其使用技术的方式,所以肯定会有人使用算法,那么可以将责任分配给使用者。
在英国议会看来,可以肯定的是,人工智能系统可能出错,造成损害。但不确定的是,是否需要新的法律责任机制,或者既有责任机制是否是充分的。所以需要进一步研究。英国议会建议法律委员会考虑当前立法在解决人工智能法律责任问题上的充分性,并阐明法律适用问题。并且应当提出关于可责性和可理解性的明确原则。
6、应对人工智能和数据相关的 新型网络犯罪活动
人工智能可能成为传统网络攻击的帮凶,导致更大规模的网络攻击。虽然人工智能系统越来越多地被用来增加网络安全,但攻击者可能欺骗人工智能驱动的网络安全系统,导致恶意软件绕过防火墙。
现在关于“恶意人工智能”的研究正在增多,即研究人员如何来愚弄其他人工智能系统做出不准确的归类或决策。图像识别系统最容易遭受此类攻击,比如对图片、三维模型和标志作出细微调整就可以让人工智能系统将其识别为完全不同的物体。在自动驾驶场合,这可能造成汽车车祸。
英国议会认为,初衷美好的人工智能研究可能被用来造成损害,这值得重视。研发人员必须积极考虑其工作的伦理影响,并采取措施防止人工智能滥用。
此外,由于数据成为训练人工智能系统的重要资源,将会产生关于数据破坏的新型犯罪活动,比如摧毁数据,改变数据,注入大量欺骗性数据。因此,英国议会认为应采取措施确保数据的完整性和精确性不被损害,并为私营部门提供如何防止数据库被恶意使用的建议。因此,需要加强研究防止数据破坏的方法,将来形成相关指南。
7、统一自主武器的国际概念 就其开发和使用形成国际共识
人工智能研发最能刺激公众神经的莫过于将其用于军事目的。将人工智能用于后勤、军事战略等非暴力军事应用无可厚非,各界争议最大的主要是所谓的自主武器或者杀手机器人。对于自主武器可能在概念界定上存在困难。但问题的核心在于人类如何控制或监督自主武器,尤其是完全的自主武器,意味着在没有人类干预和指定攻击目标的情况下自主确定攻击目标。
2016年4月,联合国召集94个国家讨论致命自主武器系统(lethal autonomous weapons systems.)的问题。讨论是否应当依据《特定传统武器公约》禁止或限制自主武器的开发和使用。
2017年11月,86个国家参加了关于武器公约的会议,现在已有22个国家禁止完全自主武器。
2017年9月,英国国防部表态称英国当前不拥有完全自主武器(fully autonomous weapon),也无意开发此类武器;并区分了自主武器和自动化武器(automated weapon),其他国家则未作区分。
英国议会认为,英国政府将自主武器界定为“能够理解高级别的意图和指令”,这与其他国家的定义不符。这不利于国际社会就自主武器达成共识。因此,建议英国对自主武器的界定和世界其他国家保持一致。
8、成立新的人工智能机构 发挥全方位的战略、咨询和领导作用
为了适应、促进人工智能的发展,英国政府已经宣布成立几个新的人工智能机构。
1.AI委员会(AI Council)和政府AI办公室(Government Office for AI)。
工业战略建议英国政府应与行业和专家一道建立一个AI委员会,帮助协调人工智能在英国的发展。此外,成立一个新的政府AI办公室(Government Office for AI)支持AI委员会。这两个机构的目的主要是促进研究和创新,刺激需求并加速向整个经济部门渗透,推动AI劳动力更加多元,让人们意识到高级数据分析技术的好处和优势。
2.数据伦理和创新中心(Centre for Data Ethics and Innovation )。
这也是工业战略宣布要成立的一个机构。这是全球首个旨在就“符合伦理的、安全的、创新性的数据和人工智能使用”给政府提出建议的咨询机构。该中心将与行业一道建立数据信托(data trusts)。该中心不是监管部门,将在塑造如何利用人工智能方面发挥领导作用。该中心主要职责包括:制定伦理框架,宣传技术的好处,提出政策建议,推动数据信托(即促进数据分享的机制)落地。
3.全国AI研究所(National AI Institute)。
这一角色将由阿兰图灵研究所扮演。旨在借鉴加拿大、德国等国家的成功经验,形成全国人工智能研究的枢纽,引领未来技术发展。
英国议会敦促政府在人工智能领域提供战略领导——制定一份明确的成功路线图。此外,建议政府AI办公室制定国家AI政策框架(即英国人工智能战略),与工业战略步伐一致。新的AI机构的职权范围必须明确。政府AI办公室可以作为其他人工智能机构的协调者。
9、当前阶段没必要对人工智能 采取统一的专门监管
对于人工智能监管,存在三种意见:
一是既有法律是足够的,因为人工智能往往融入产品和系统,这些产品和系统已经很好地受到了监管,所以不需要对人工智能进行专门监管(specific regulation)。
二是需要立即采取新的立法措施,旨在避免意想不到的后果,比如针对算法歧视、不公平等。
三是对人工智能监管提出更审慎和分阶段的路径,因为糟糕的监管可能阻碍人工智能发展、创新和竞争,因此可以采取事后监管或者出台伦理框架支持行业自律。此外,人工智能技术发展太快,成文的或专门的立法恐难跟上技术步伐,所以要避免严格、细致的法律要求。
英国议会认为反对专门人工智能监管的理由是让人信服的。其一,企图为所有人工智能应用制定统一的监管机制是不现实的。其二,由于技术发展太快,不可能通过立法进行简单粗暴的监管,倒是可以采取标准、最佳实践等方式。
因此,英国议会认为,在当前阶段,对人工智能采取统一的专门监管是不恰当的。因为各个行业的专门监管机构最能评估人工智能对特定领域的影响并采取适宜的监管措施。当然,政府AI办公室需要与数据伦理和创新中心一道确定潜在的监管鸿沟。
10、制定国家人工智能准则,推动形成 人工智能研发和使用的全球共同伦理框架
可以肯定的是,人工智能将会对社会、政治和经济都产生影响。如果发展不好,可能削弱公众对人工智能的信任。因此必须让公众相信,人工智能的使用符合他们的利益,不会被用来剥削或操纵他们。
一些机构和企业已经提出了各自的人工智能伦理原则,如IBM提出了三条原则:AI辅助而非取代人类;AI必须透明;公民和劳动者需要为使用AI产品和服务获得教育和培训。
Sage提出了五条,涉及多元化、透明性、可获取性、可责性及辅助而非取代人类。此外,SAP、Nvidia都有类似举措。
DeepMind则成立了“人工智能伦理与社会部门”,理解人工智能的现实影响并帮助技术人员将伦理付诸实践。在自我监管的框架中,伦理委员会和伦理审查委员会是重要的工具。
此外,IEEE、美国人工智能联盟(Partnership on AI)、英国标准组织(BSI)都在推动类似举措。
但英国却缺乏国家层面的人工智能准则。虽然可以将这些原则涵盖进数字宪章(digital charter)或政府数据科学伦理框架(Government’s Data Science Ethical Framework)中,但这些举措进展缓慢,而现在又迫切需要一个规范人工智能系统开发和使用的伦理框架。问题还包括,企业如何将这些原则转变为实践,不遵守需要承担多大的责任。这些都需要进一步探讨和研究。
英国议会为人工智能准则(AI Code)的制定提出了五条初步的原则:
其一,开发人工智能应当为了共同利益和人类福祉。
其二,人工智能的运行应符合可理解原则和公平原则。
其三,不应利用人工智能来削弱数据权利或隐私。
其四,所有公民都有权获得教育,以便享有人工智能带来的好处。
其五,伤害、毁灭或欺骗人类的自主权力绝不应委托给人工智能。
此外,英国议会认为,英国在人工智能领域多方面的优势,使英国有能力在国际舞台上帮助塑造人工智能研发和使用的伦理框架。因此建议政府在2019年的时候,与感兴趣的国家和政府、行业、学术界和民间团体一道在平等的基础上,在伦敦召开全球峰会。这次峰会的目的便是制定人工智能系统开发和使用的全球共同伦理框架。
最后,正如本文开头所说,在人工智能的下一波发展浪潮中,英国具有独一无二的硬实力和优势,有能力成为人工智能领域的全球领导者。如今,英国议会长达180页的综合性人工智能报告,则希望打造英国的人工智能软实力。不仅对人工智能监管等相关问题有着清晰的认识,而且要将英国的人工智能软实力输出为国际规则,甚至主导国际规则的制定。