从澳大利亚政府针对药物测试福利接受者的新“数据驱动分析”试验,到美国执法部门使用面部识别技术以及在美国许多法院判决专利软件的部署,几乎是隐身和极少的抗议,技术是改变我们的监管方式,归类为公民,也许很快就会被治理。
我们只是处于所谓的算法规则的最早阶段 - 智能机器部署大数据,机器学习和人工智能(AI)来规范人类行为和执法 - 但它已经对私人公民和公民之间的关系产生了深远的影响。
此外,这种技术的兴起正好发生在对西方世界大多数政府的信心急剧下降到历史最低点的那一刻。大多数发达国家的选民越来越多地认识到建立政治家和那些围绕他们的人是不合时宜的泡沫居民,并在投票箱中表达他们的不满。
技术解决方案
在这种动荡的政治环境中,越来越多的人认为技术可以提供替代解决方案。算法规则的倡导者声称,鉴于机器学习能力的稳步提高以及他们筛选和解释永久性的能力,许多人为制定的法律和法规可以通过人工智能比人工智能实时更好,更直接地应用。越来越多(通常是智能手机生成的)数据。
人工智能倡导者还建议,根据历史趋势和人类行为,算法可能很快就能够塑造我们日常生活的方方面面,从我们作为司机的行为方式,到我们作为公民的责任和权利,以及我们应该受到的惩罚。因为不遵守法律。事实上,人们不必过于遥望未来,想象一个人工智能实际上可以自主创建立法,预测和预防社会问题的世界。
有些人可能预示着民主党重新启动。在我看来,它代表着对民主本身的威胁 - 并且深刻的怀疑应该占上风。将算法纳入政策领域有五个主要问题:
1)自我强化偏见
一般来说,机器学习和人工智能(与人类不同)擅长实时分析数百万个数据点以识别趋势,并在此基础上提供“如果这个,那么”类型的结论。其固有的问题是它带有一种自我强化的偏见,因为它假定过去发生的事情将会重演。
我们以犯罪数据为例。与繁荣的白人相比,收入较低的黑人和少数民族社区更容易受到犯罪和反社会行为的影响。如果你然后使用算法来制定法律,那么将不可避免地发生的事情是,这些社区将被单独用于密集的警察巡逻,从而增加对峙和逮捕的可能性。
当然,这将完全有效地关注特定地区的高犯罪率成为一种自我实现的预言。如果你是一个以这种方式出生在一个地区的孩子,那么逃离你的环境的机会会变得越来越苗条。
当然,这已经发生了。预测性警务 - 自2010年初以来一直在美国使用 - 一直面临着有缺陷的指责,并且容易出现根深蒂固的种族偏见。预测性警务能否持续减少犯罪,仍有待证明。
2)易受攻击的问题关于人工智能法的第二个也是同样重要的问题是安全问题。几乎所有大公司,政府机构和机构 - 包括美国司法部 - 都可能在某些时候遭到破坏,主要是因为这些组织在保护数据方面往往远远落后于黑客。温和地说,政府不太可能保护算法免受攻击者攻击,并且由于算法往往是“黑盒子”,我们不清楚我们是否能够识别算法是否以及何时被篡改用。
据报道,美国最近就涉嫌俄罗斯黑客攻击民主党全国委员会的辩论就是一个很好的例子,该委员会据称帮助唐纳德特朗普成为总统。同样,由于代码的复杂性需要编写以将政府和司法权力转移到机器上,因此,鉴于我们对软件的了解,它几乎可以确定它会充满漏洞。
3)谁在发号施令?
围绕利益冲突也存在问题。当然,政府并非由政府制定用于警务和监管的软件,而是由私营公司(通常是技术跨国公司)开发,这些公司已经提供政府软件,并且往往拥有非常明确的专有激励措施以及通常与政府的不透明联系。
这种伙伴关系也引发了围绕这些算法透明度的问题,这是一个主要问题,因为它们对人们的生活产生了影响。我们生活在一个政府数据日益向公众开放的世界。这是一种公益事业,我是它的坚定支持者。
然而,从这一免费数据激增中受益最多的公司显示出双重标准:当政府是消息来源时,他们是自由和开放数据的激烈倡导者,但要确保他们自己的编程和数据仍然是专有的。
4)政府是否遵守它?
然后是政府在数字问题上的能力问题。根据我的经验,绝大多数政治家对技术的极限,它能做什么和不能做什么的理解都接近于零。政客们未能掌握空间的基本原理,更不用说复杂的空间,这意味着他们无法充分规范将要构建软件的软件公司。
如果他们无法理解为什么后门无法与加密技术齐头并进,他们很可能无法将认知跳跃到具有更多复杂层的算法规则需要的地方。
同样,英国和法国政府正在实施的规定使得该州不断扩大对公民数据的访问,这表明他们不了解通过建立此类数据库所带来的风险规模。下一次丑闻爆发,涉及政府的大规模扩张,这只是时间问题。
5)算法不做细微差别
与此同时,可以说,反映硅谷的傲慢态度,即技术无法解决的问题很少,人工智能监管方法的最后一个问题是,每个问题始终都有最佳解决方案。
然而,修复看似棘手的社会问题需要耐心,妥协,最重要的是仲裁。以加州的水资源短缺为例。这是一个竞争需求的故事 - 农业产业与普通人口; 那些认为应该削减消费以应对气候变化的人与那些认为全球变暖不是存在主义威胁的人相比。算法能否真正在这些方之间进行仲裁?在宏观层面上,它是否能够决定谁应该承担最大的气候变化负担:发达国家,谁首先引起了问题,或发展中国家谁说他们现在是现代化的时候,这将要求他们继续能源效率低下?
我的观点是,算法在适应黑白的同时,不善于应对渐变的灰色阴影,具有细微差别和权衡取舍; 在权衡哲学价值观和提取来之不易的让步。虽然我们可以构建实现和管理某种社会的算法,但我们首先需要同意我们想要的社会类型。
那么当社会经历周期性(快速或渐进)的根本变革时会发生什么?例如,想象一下,当奴隶制盛行时建立的算法,同性恋是不可接受的,女性没有投票权。当然,这就是为什么我们选择政府的决策不是基于历史趋势,而是基于大多数选民购买的愿景,通常是妥协的。
公民社会必须做的很多事情就是建立一种关于我们希望如何生活的不断变化的共识。这不是我们可以完全外包给智能机器的东西。
制定一些基本规则
尽管存在所有问题,但毫无疑问,某种类型的人工智能政府将会发生。那么,我们怎样才能避免它成为糟糕科幻小说的东西呢?
首先,我们应该利用人工智能来探索积极的替代方案,而不仅仅是应用它来支持传统的解决社会问题的方法。为了保护公众,不是简单地找到并将罪犯送到监狱,如何使用人工智能来找出其他潜在解决方案的有效性?提供年轻的成人识字,算术和其他技能可能代表了比更积极的执法更优越,更具成本效益的犯罪解决方案。
此外,人工智能应该始终用于人口层面,而不是个人层面,以避免人们根据他们的历史,他们的基因和他们居住的地方来侮辱人们。对于未来的雇主,健康保险公司,信用卡公司和抵押贷款提供商而言,更为微妙但更为普遍的数据驱动目标也是如此。虽然人工智能分类的商业必要性是明确的,但当它针对个人时,它就等于分析,其中不可避免的后果是整个社会阶层都被排除在机会之外。
可以肯定的是,并非所有公司都会针对客户使用数据。当一项2015年哈佛商学院的研究以及随后的Airbnb审查发现, 使用家庭共享平台发现针对黑人和少数族裔租户的常规偏见时,Airbnb高管采取措施打击这一问题。但Airbnb可以完全避免对研究及其审查的需要,因为人工智能算法对平台数据的真正智能应用可能更早地发现了歧视,也许还提出了预防它的方法。这种方法将利用技术来支持更好的决策人类,而不是取代人类作为决策者。
为了在公共部门实现这种方法的潜力,政府需要设计一种方法论,首先要讨论算法部署所需的结果,以便我们能够理解并准确地同意我们想要衡量的针对的算法的性能。
其次 - 政治家需要在这里加快速度 - 对于使用它们的每种情况,需要有关于算法性能的实时和恒定的数据流,以便算法能够不断适应以反映不断变化的环境和需要。
第三,任何通过人工智能应用所通知的拟议法规或立法,在通过法律之前,都应该采用传统的人道方法进行严格的检验。
最后,任何使用公共部门数据来加强或改进其自身算法的营利性公司应该与政府分享未来的利润,或者同意一种安排,即所述算法最初将被租赁,并最终由政府拥有。
毫无疑问,算法规则正在进行中。但人工智能更广泛地引入政府需要谨慎管理,以确保以正确的方式利用人道主义 - 正确的社会改善 - 。替代方案可能会产生意想不到的后果,最终可能是民主本身。