这是一个人工智能仍然严重缺乏某些人类属性的示例:测试表明,仅通过将一个单词替换为同义词就可以将自然语言处理(NLP)系统欺骗为误解文本。
麻省理工学院的一个研究小组开发了一个名为TextFooler的软件,该软件寻找对NLP分类器最关键的单词并将其替换。团队提供了一个示例:
对于人类来说,没什么问题。然而,有关认可机构的结果却是惊人的。例如,Google的神经网络BERT在确定Yelp的评论是正面还是负面时就差了多达7倍。
道格拉斯·天堂(Douglas Heaven)为《麻省理工学院技术评论》撰写该研究的综述,解释了为何这项研究很重要。“我们已经看到了许多对抗性攻击的例子,其中最常见的是图像识别系统,在这种情况下,对输入的微小改动就会使AI产生混乱,并使AI对所看到的内容进行错误分类,” Heaven写道。“ TextFooler表明,这种攻击方式也打破了NLP,虚拟助手(如Siri,Alexa和Google Home)背后的AI以及垃圾邮件过滤器和仇恨语音检测器等其他语言分类器。”
该出版物探讨了AI技术超越人类努力的各种方法,例如检测乳腺癌,玩StarCraft和公开辩论。在其他领域,抵抗仍然存在,但徒劳无功。在12月,据报道,人类的司机仍在跳动的整体认可,在无人驾驶的赛车,尽管无人机赛的首席技术官联盟预测,2023将是其中AI接管了一年。
研究人员希望,诸如TextFooler之类的软件的最终目标是使NLP系统更强大。
附言:对于那些从不列颠群岛,中国和某些英联邦国家以外的国家读书的人来说,要“斯诺克”某人源于同名运动,就是“让一个人处于困境”。与美国相对应的是“落后于八球制”,尽管这当然会引起头条。