从最近的学术进步和人工智能行业采用中吸取的经验教训
几年前,在学术机构之外很难找到任何人认真讨论人工智能(ai)。今天,几乎每个人都在谈论人工智能。像任何新的主要技术趋势一样,使人工智能和智能系统成为现实的新浪潮正在创造好奇心和热情。人们开始随大流,不仅增加了伟大的想法,而且在许多情况下,还增加了许多错误的承诺,有时还会误导人们的意见。
人工智能是由伟大的思想家和学术研究者建立的,被世界各地的工业和学术界的进一步发展所采用的人工智能的发展速度比任何人所预料的都要快。我们坚信,我们的生物局限性正日益成为创建智能系统和机器的主要障碍,这些智能系统和机器与我们一起工作,以更好地利用我们的生物认知能力来实现更高的目标。这推动了各行业的需求和投资浪潮,将人工智能技术应用于解决现实问题,创造更智能的机器和新业务。
在过去的几十年里,人工智能克服了许多障碍,主要是在学术方面。然而,它目前面临的主要挑战之一是在现实行业场景中的采用,以及围绕它的神话和误解。不幸的是,由于人工智能能做什么和不能做什么的信息令人困惑且相互冲突,行业领导者很难在狂热者、平台供应商和服务提供商的快速拥挤和嘈杂的生态系统中区分事实和虚构。然而,一旦尘埃落定,事情变得明朗,人工智能的真相将持续下去,最终输家和赢家将被宣布。
面临的挑战是,行业领导者如何对人工智能能够和不能为其业务做什么有一个现实的看法,并不断地更新它,从而引导他们的组织以正确的方式应用人工智能来解决现实世界中的问题和改造他们的业务。此外,学者和人工智能从业者有责任走出他们的泡沫,与行业专家合作,以进一步发展人工智能的学术基础,使其在现实世界中的应用更快、更有价值和负责任。
当前工业界人工智能采用的“混乱”状态
在过去的几年里,几乎所有行业的商业领袖都在试图了解被称为人工智能(ai)的新的神奇技术,以及他们的企业如何从中受益。不幸的是,直到现在,人工智能解决方案的大多数实现还没有超越概念证明(POC),即范围有限的分散机器学习(ML)算法。虽然人工智能采用的这一水平和方法为公司浪费了许多机会和资源,但它有助于说服企业和IT领导人,人工智能可以推动变革性和相关创新。
如今,许多POC项目使用基本上简单的统计方法向其分析解决方案添加一些简单的预测或分类功能,并称之为人工智能解决方案。这仍然被定义为分析或可能的高级分析,在理解结果和作出决定或采取行动时仍然需要广泛的人为干预。
随着业务流程和操作条件的不断变化,新生成的数据和不同业务因素的不断变化降低了精度水平,这些算法所提供的价值随着时间的推移会使它们变得无用,甚至导致危险的决策。
这种方法及其结果只是令人沮丧的现实的另一部分,这一现实使企业领导者感到困惑,阻碍了以适当方式正确采用先进的人工智能技术,以获得有价值的结果。
目前试图在某些业务领域压缩少量机器学习(ML)算法以快速获得收益的方法只是一种风险,可能会对跨行业的人工智能采用造成挫折,从而引发另一个“人工智能冬季”,这次在行业方面,而不是在学术方面。以这种方式应用成熟的人工智能技术可能会增加一些价值,但可能会给组织带来新的危险的“人为愚蠢”,并带来灾难性的后果。
在接下来的几年里,公司不能继续接受这样一种困惑和犹豫的状态:人工智能可以做什么,不能做什么,如何与其他技术集成以创建智能解决方案或机器,以及在哪里适当地应用它。
在接下来的几节中,我将重点介绍一些当前的神话和误解,它们掩盖了人工智能的现实,阻碍了它的正确采用。我还将分享一些关于如何克服这些问题的想法,以加速人工智能的实际应用,并降低对企业和社会的风险。
散乱ML算法的诅咒
在过去的几年中,一些有动机的商业领袖使用开源的ML库在他们自己和业务领域内启动了人工智能计划,重点关注一些需要优化的关键决策。这些努力通常不是整个公司有组织计划的一部分。虽然这些努力增加了一些价值,并帮助不同的团队在使用人工智能功能解决某些业务问题方面获得了第一次经验,但它导致了分散的跨组织的ML算法。不幸的是,这种分散的ML算法不能完全释放数据中隐藏的价值,也不能利用组织所拥有的宝贵的业务知识。此外,它们还会给公司带来潜在风险。
分散的ML算法带来的一些主要风险是:
算法可以通过使用有限的一组特性和数据进行培训,从而导致在业务领域内外做出错误的或有时是危险的业务决策。
在优化本地运营决策时,此类算法可能会无意中对其他业务领域甚至全球运营产生负面影响。
这种单独的算法很容易被内部或外部参与者操纵和误导,从而增加了一个新的网络安全风险类别。
培训一些机器学习算法可能需要昂贵的计算能力,这会增加小型企业单位的高成本。在许多情况下,这导致业务部门完全放弃人工智能,因为他们错误地认为采用人工智能的成本很高。
通常,大多数(如果不是全部)业务职能部门和运营部门都是直接连接的。它们生成的数据、它们创建的知识以及它们所遵循的角色是共享的,并且是相互依赖的。人工智能可以在人类通常看不到的大量数据和特征中看到一些相互依赖和关系。这可以用来创建一个强大的数据和知识平台,使跨组织分布式人工智能系统能够将分散的数据、知识和决策性质从弱点转换为主要优势。
各组织必须迅速采取行动,松散地整合所有人工智能计划和ML算法,并在整个人工智能采用策略内将它们移动到标准的企业级安全人工智能平台。
这将使分布式但相互关联的人工智能解决方案能够提供智能,从而在需要做出决策时为企业带来最大利益和转型能力。这一举措还将加速人工智能的成功采用,降低采用成本,增加投资回报率,并降低公司的内部和外部风险。
人工智能采用还是智能企业创建?
在人工智能系统能够为我们做出这样的决定之前,企业必须决定他们是否只想采用人工智能,还是最终创建一个智能企业,这将比采用人工智能更为重要。目前围绕机器人过程自动化(RPA)的讨论以及它们是否是人工智能的一部分,使得关于人工智能采用的讨论偏离了轨道。是的,RPA不是人工智能的一部分,至少基于人工智能的学术定义,并且不能无视所有误导性的大声营销声音。当前的RPA技术只是简单的脚本,不幸的是,在许多情况下,这些脚本只是自动化了多年来积累的当前业务流程,并且主要是在设计时只考虑了人的因素。
如果做得对,RPA和智能过程自动化(IPA)将是一个重新设计和自动化新员工队伍的基础过程的机会,在新员工队伍中,人和机器智能地、更紧密地协作。
企业领导者应该计划创建一个智能企业,该企业提供智能产品和服务,并采用智能流程进行包装,以利用人类的生物智能和机器的人工智能能力,而不仅仅是自动化重复过程,以降低成本并确认某些决策。离子,如果没有新技术,它们可以单独发挥作用。
智能企业的一些基本能力是,它的产品、解决方案和服务能够智能地使用他们和人类创造的集体知识,能够不断地学习做得更好,做新的事情,以及对不断变化的环境和需求做出智能的反应。
考虑到智能企业的人工制品和内外部业务环境日益复杂,过多的传统人工干预将日益成为实现智能企业目标的主要瓶颈。这是因为我们的生物能力有限,甚至像手指和眼睛运动这样的简单任务。
因此,组织需要停止浪费时间讨论RPA,并制定智能企业的战略和路线图,其中应包括:
他们的智能企业的总体愿景、定义和路线图,包括以动态方式解决原因、内容、方式和时间的产品、解决方案和服务。
新智能流程的路线图,设计用于更紧密合作的人机。
一种超越人工智能和ML算法的策略,以识别对端到端智能解决方案和产品至关重要的其他技术,例如新的传感技术、智能物联网网关、边缘计算硬件以及包括量子计算在内的高性能计算机。
在我们构建、使用、操作和维护此类智能系统和解决方案的方式中,创建所需文化和组织运作转变的计划。
创建创新生态系统的计划,该生态系统应是新业务的一个组成部分,以预见并向新业务和联合客户提供新的智能服务。
人机界面(HMI)的新定义给出了人工智能技术(如自然语言处理和理解(NLP/NLU)和通过增强现实/扩展现实技术加速的高级计算机视觉)所支持的新用户界面/用户界面。
人工智能技术还没有为工业应用做好准备。这是一个神话吗?
当前的人工智能得益于数十年来高质量的学术研究。然而,很明显,当前人工智能系统的一个主要弱点是缺乏现实生活经验,这需要使它对我们所有人都有用。当人工智能系统在使用之初未能给出正确答案时,这通常并不意味着基础人工智能算法或数学模型不够成熟。
与人类一样,人工智能算法需要更多的现实经验,这些经验可能包括通过算法在现实世界中自己的试验和错误创建的更多数据。
因此,在人工智能解决方案还没有或几乎没有经验的情况下,对其进行早期判断是不公平的,技术上是错误的。这是当今最常见的错误之一,通常会导致对人工智能基础模型成熟度的失望和误解。在将人工智能解决方案部署到企业中之前,我们必须给予人工智能解决方案学习和仔细评估的时间。
例如,机器学习能力,如计算机视觉(cv)和自然语言处理(nlp)是当今人工智能中最成熟和被广泛采用的部分。它们是许多工业和消费者应用程序和产品背后的认知引擎,迄今为止对商业和个人生活产生了最积极的影响。
这是传统分析和人工智能解决方案之间的关键区别。在分析中,软件供应商在没有实际数据的情况下构建软件解决方案。相反,在人工智能解决方案中,我们使用问题描述、实际数据、领域知识和一组特定的目标来创建、培训和验证ML算法。没有数据,没有算法!在人工智能中,没有交钥匙解决方案。这是一个关键的心态转变,必须立即发生以避免这种误解。
这种思维方式的转变,加上设计分布式智能系统(如多代理分布式和互联认知系统)的新原则,将在决定组织利用人工智能能力的努力是否会成功,或只是增加更多的挫折、浪费的机会和新的风险方面发挥重要作用。
此外,人工智能系统在每个设计中必须具备的一个关键功能是,它应该能够持续学习,并随着时间的推移动态地利用有效的学习方法。选择正确的初始架构以及持续学习方法(如监督、无监督、强化学习或混合学习)对于成功采用人工智能非常重要。终身持续学习(LLCL)是当今人工智能研究的主要和最有前景的领域之一。然而,由于从非平稳数据源连续获取新的信息通常会导致对先前学习的知识的灾难性遗忘或精度的突然下降,因此对当前的机器学习和神经网络模型仍然是一个挑战。
虽然要使人工智能系统不断地学习和发展其环境还需要做很多工作,但大多数来自初创企业和成熟供应商的现有人工智能平台都提供了实现这一点的强大工具。
人工智能在商业中的应用,不是因为它的学术方法和算法,也不是因为它周围建立的技术平台,而是因为我们采用的方式,在商业解决方案和工业产品中构建和集成它们。
过度夸大的数据承诺
到目前为止,培训、测试和验证当前的机器学习算法是一个挑战,尤其是深度机器学习,因为它们需要大量的好数据。此外,过去几年表明,在许多情况下,企业在当前ML方法所需的质量和数量方面没有足够的历史数据。此外,我们今天所获得的数据是在人类及其生物优势和弱点的基础上生成和收集的。
即使在我们有足够的数据的情况下,我们也必须在数据工程、数据分析、特征工程、特征选择、预测建模、模型选择和验证等不同领域投入大量精力,然后才能使用初始算法。此外,手动调整第一代算法的内部结构的设计和持续改进需要大量繁琐和重复的工作,并且需要大量的计算能力,特别是当我们想要以恒定或提高精度解决严重问题时。
当前的“预测分析”解决方案使用简单的统计模型根据可用的历史数据来预测某些内容。它假设未来将以一种简单而直接的方式跟随过去。在许多情况下被证明是错误的假设。例如,工业设备的故障历史在原因、性质和后果方面是不同的,因为工人经过更好的培训,能够获得更多的信息,甚至拥有更好的工具来测试、维修和维护这些设备。这使得部分“昂贵”的历史数据产生误导。
我们对过去事件的有限或偶尔的偏见理解和解释以及这些事件发生的背景降低了人工智能解决方案准确预测复杂事件的精度,这些复杂事件通常发生在我们无法完全理解的现实中。
此外,科学家们对统计推断和滥用统计显著性和“P值-概率值”的警告日益增多,在某些情况下,这可能导致灾难性后果。一些科学家甚至呼吁放弃统计学意义的概念,特别是在需要高精度预测的情况下。最后,正如在许多情况下看到的那样,我们发现结果不超过重申预先确定的决定。
人类大脑最初接受的训练数据较少,但经过多年的生活经验积累,经过扩展、验证并不断地接受大量数据的教导。
如今,ML算法接受了大量数据的培训,测试的数据较少(约70%到30%)。因此,人工智能系统不应该只收集和分析大量的数据,而应该从简单的任务开始,能够通过收集或综合生成的数据不断学习、增加能力、扩展知识、增强推理能力,适应新的环境。
在过去的几年中,使用人工智能解决复杂问题的一个重要经验是,我们需要新的人工智能系统架构,它依赖更少的数据和更少的人的监督。因此,人工智能从业者和学术研究人员正在超越传统的机器学习体系结构,尝试创建新的ML算法,以创建和理解自己创建或获取的数据。
在一些人工智能领域,我们看到了许多进展,如新的生物学启发的数学方法、更有效的神经网络结构、生成对抗网络(gan)、多智能体深度强化学习(madrl)和遗传进化算法。一个共同的目标是减少人工智能对人类创造的大量数据和知识的依赖。此外,在开发诸如GPU、TPU和FPGA等人工智能专用硬件方面的巨大进步也使得这种新方法成为可能。
此外,将更有效的知识表示技术(如进化和协同进化模块化多任务知识表示技术)与当前的ML算法结合起来,将有助于组织从相同或更少的数据中发现更多的知识。以人脑为灵感的新推理方法正在迅速出现,使我们能够建立一个系统,随着时间的推移,这个系统可以像人类一样推理,但没有生物学上的限制,从而提高了机器作出决定的精度和速度,并避免了在没有机器推理的情况下做出灾难性决定的可能性很大。
虽然人工生成的数据将继续非常重要,尤其是在工业中采用人工智能的早期阶段,随着时间的推移,使用人工智能技术和架构的正确组合将需要更少的数据,并利用更多公司的集体知识来节省时间和精力,同时创建更安全、更高效的人工智能驱动业务——尼斯系统。
人工智能解决方案的设计是安全的,真的吗?
我们都希望智能解决方案能够以不同于传统软件解决方案的方式进行自我保护。从技术上讲,人工智能供电系统可能检测到敌方行为,在某些情况下,主动采取先发制人的措施来保护自己。如今,人工智能正被有效地用于增强传统的网络安全解决方案,使其能够早期识别或预测攻击,并建议对敌方系统进行原始攻击。
由于对人类生成的数据的强烈依赖,具有深度神经网络结构的ML算法也很容易被误导,从而做出错误甚至危险的决策。
通常,黑客访问传统的软件系统来窃取数据。他们侵入工业控制系统,误导他们采取错误的行动。然而,人工智能系统的核心主要是算法,数据量较少。这在一些人中间造成了一种绝对安全的假象,因为里面没有什么东西可以偷。然而,网络攻击者可以向人工智能系统提供错误的数据,而不是窃取数据,从而操纵他们做出正确决策的能力。例如,攻击者可以访问电子病历(EMR)来添加或删除MRI扫描中的医疗状况,这将导致ML算法错误诊断。同样的情况也可能发生在核电站或智能电网的财务数据或关键设备的运行数据上。
一些人工智能解决方案最先进和最有前景的特点之一是能够不断地从他们的行为中学习,我们使用他们解决问题或做出决策的方式,以及我们授予他们访问的外部数据源。即使是这种独特的特性,也使得人工智能解决方案更容易受到新类型的网络攻击,例如影响其行为,从而产生错误的学习数据(经验),这将导致未来错误或有偏见的决策。这就像让人们接触到特定的体验,目的是在某个方向上误导他们的行为。
所谓的“对抗性示例”是指提供给人工智能系统的一组数据,目的是误导它们并导致错误分类和错误决策。这样一种新型的智能数字系统黑客攻击正在造成甚至是最先进的深度学习系统的主要安全漏洞。这一切都是为了误导大脑或破坏组织的集体智能的主干,甚至是其关键的物质资产。这可能更具灾难性,在某些情况下可能造成无法弥补的损害,甚至威胁到公司的存在。
各组织应意识到这一新的网络威胁,并考虑设计、实施和保护人工智能数字和物理系统以及它们与内部和外部交互的系统的新方法和工具。
人工智能系统不能有偏见。一个巨大的误会!
人工智能伦理和偏见是当今最常讨论的话题之一。当我们使用人类根据我们今天创建的训练机器学习算法的规则生成的数据时,这些数据将直接反映我们思考和处理事情的方式。这些数据将决定每个算法的行为。
在许多情况下,如诊断医学图像、预测设备故障或优化生产能力、道德和社会偏见可能不是需要解决的问题的一部分。这造成了另一个误解,即人工智能偏差问题在这种情况下是不相关的,使得许多人错误地认为算法没有偏差。在这种情况下,许多公司都不知道ML算法可能会给组织带来高风险甚至法律负担。
虽然从我们用来训练ML算法和验证其行为的数据中消除社会偏见非常重要,但公司必须了解存在不同类型的人工智能偏见,并意识到这些偏见。
例如,我们通常使用特定设备的技术数据和其他操作和环境数据来训练ML算法,这些算法可以主动预测设备故障或指导我们如何提高其性能。在某些情况下,由于许多已知和未知的变量,算法倾向于预测更多或更少的故障,从而导致业务中断。
人工智能偏差应该根据我们试图解决的问题或我们试图做出的决定来定义和识别。
我们应该开发新的方法和工具,使我们能够根据相关的商业和技术知识,使用适当的人力和机器推理来揭露偏见。在人工智能时代,人工智能系统的伦理、问责制和治理是领导层最重要的角色之一,他们必须积极参与,让自己了解情况,提供指导并提高整个组织的认识。
在我们拥有人工智能法规或政府指定的监管机构之前,公司必须确保他们的人工智能系统至少使用他们每天运营业务所使用的相同标准和法规。这在跨越数字和物理系统的重要人工智能应用中尤为重要。
结论
各公司必须认真制定全面而动态的人工智能战略,并立即启动适当的执行计划,为人工智能推动的许多智能事物的新时代做好准备。这一面向智能企业的战略将有助于创造未来的新的人+机劳动力,并重新想象他们的整体业务。在小得多的新颠覆者的新智能产品、解决方案或服务不仅会对他们的业务构成真正的威胁,而且会对他们的生存构成真正的威胁之前,这是迫切需要的。
这将要求企业和IT领导层对人工智能现在和不久的将来能做和不能做的事情有一个现实而准确的看法。此外,有一个在人工智能领域拥有丰富学术和实践经验的人来领导这类举措,将有助于组织摆脱炒作,避免昂贵的误解和误导性的神话。
智能不能集中,应该分散,不局限于几个功能领域。应预先考虑采用嵌入式、边缘化和集中化智能的混合平衡方法,以确保组织的集体智能在所有团队、职能领域、产品和服务中得到良好的协调发展。
最重要的是,对智能企业采用人工智能和其他相关技术将使生产效率更高、功能更强大的人类和智能机器更加接近,从而创造出强大的未来劳动力。公司应该理解,人类和机器将继续是新劳动力的两大支柱,并明智地计划利用它们的综合优势,了解它们在生物和人工性质方面的局限性。