飞机可接受的故障率是多少?好吧,这不是零 ……无论我们多么想相信其他方式。有一个数字,但它是一个很小的数字。在机器,计算机,人工智能等方面,它们是不完美的。会犯错误。推荐不当。人工智能永远不会完美。这并不意味着它们不提供价值。人们需要了解机器为什么会出错,并据此设定自己的信念。这意味着了解AI失败的三个关键领域:隐性偏见,不良数据和期望。
第一个挑战是隐性偏见,即人们对云的思想和行为的无意识感知。考虑一下,最近关于种族正义和警察暴行的抗议活动以及“ 黑人生活至关重要”的有力信息。《福布斯》(Forbes)文章AI屈膝:法律下的改善平等待遇的行动,很好地说明了隐性偏见如何在歧视中发挥作用,以及使用AI减少对我们的偏见有多困难(但并非不可能)执法和司法系统。人工智能向人学习。如果隐性偏见正在训练中,则AI将学习该偏见。此外,当AI执行工作时,该工作将反映这种偏见……即使该工作是为了社会公益。
以Allegheny家庭筛选工具为例。它旨在预测哪些福利儿童可能会受到养父母虐待的威胁。但是,此解决方案的最初推出面临一些挑战。当地的人类服务部承认该工具可能存在种族和收入偏见。疏忽之类的诱因常常被生活在贫困中的寄养父母与注意力不集中或虐待相联系而混淆或误解。自从学习了这些问题以来,采取了巨大的措施来减少e筛选工具中的隐性偏差。消除困难得多。当谈到偏见时,人们如何处理未知的未知数?如何处理社会环境?“正确”或“公平”行为是什么意思?如果人们无法识别,定义和解决这些问题,那么他们将如何教机器?这是一个主要的驱动程序,由于隐性偏见,AI将是不完美的。
第二个挑战是数据。数据是人工智能的动力。机器通过大量的真实数据(即如何制定决策的规则,而不是决策本身)进行训练,并从大量大数据中进行训练,以学习数据中的模式和关系。如果我们的数据不完整或有缺陷,那么人工智能将无法很好地学习。考虑COVID-19。约翰·霍普金斯(John Hopkins),COVID追踪项目,美国疾病控制中心(CDC)和世界卫生组织全部报告不同的数字。有了这样的变化,人工智能很难从数据中闪现出有意义的模式,更不用说找到那些隐藏的见解了。更具挑战性的是,不完整或错误的数据该怎么办?想象一下,教一个关于医疗保健的AI,但只提供有关女性健康的数据。这阻碍了我们如何在医疗保健中使用人工智能。
随之而来的挑战是人们可能会提供过多的数据。这可能无关紧要,毫无意义,甚至会分散注意力。考虑一下IBM是何时让Watson阅读《城市词典》的,然后它无法区分何时使用普通语言还是使用语和骂人的单词。问题变得如此严重,以至于IBM必须从Watson的内存中删除Urban Dictionary。同样,一个AI系统需要听大约1亿个单词才能流利使用一种语言。然而,一个人类孩子似乎只需要大约1500万个单词就能流利。这意味着我们可能不知道什么数据有意义。因此,AI培训师可能实际上专注于多余的信息,这可能导致AI浪费时间,甚至更糟的是识别错误的模式。
第三个挑战是期望。即使人类犯错,人们仍然希望机器是完美的。在医疗保健领域,专家估计误诊率可能高达20%,这意味着五分之一的患者有可能被误诊。考虑到这些数据以及AI辅助诊断的错误率可能为十万分之一,大多数人仍然喜欢只看人类医生。为什么?给出的最常见原因之一是AI的误诊率太高(即使它比人类医生低得多)。人们期望AI完美。人们甚至期望人类AI培训师也很完美,甚至有可能变得更糟。
2016年3月23日,微软发布了Twitter机器人Tay(对您的想法)。微软已经对AI进行了培训,使其达到了一名19岁美国女孩的语言水平和互动能力。在一次盛大的社交实验中,Tay被释放到全世界。96,000条推文之后,微软不得不在发布后约16小时关闭Tay,因为它转变了性别歧视,种族主义并促进了纳粹主义。遗憾的是,有些人决定教Tay有关煽动性语言的内容,以使其腐化。同时,Microsoft并未考虑教Tay有关不当行为的信息,因此没有任何理由(或理由)知道诸如不当行为和恶意意图之类的东西。盛大的社会实验导致失败,可悲的是,这可能更多地证明了人类社会,而不是人工智能的局限性。
内隐的偏见,不良的数据以及人们的期望表明,人工智能将永远不会是完美的。这不是许多人希望拥有的神奇的解决方案。人工智能仍然可以为人类做一些非凡的事情,如恢复失去肢体的活动能力或在减少资源的情况下改善粮食生产。人们不应该折衷我们可以得到的价值。我们应该永远记住:AI就像我们一样,是不完美的。