您如何训练AI避免行为不端?至少根据马萨诸塞州阿默斯特大学,里约热内卢联邦大学和斯坦福大学联合发表的论文《防止智能机器的不良行为》,美国和巴西的科学家似乎已经找到了答案。为了向艾萨克·阿西莫夫(Isaac Asimov)的角色哈里·塞尔登(Hari Seldon)致敬,该小组开发了所谓的“塞尔登算法”,这是一种机器学习设计师的框架,可将行为回避指令构建到实际产品和服务中使用的算法中。
阿西莫夫(Asimov)在1942年的短篇小说《奔跑》(Runaround)中提出的三项机器人定律得到了很好的引用。本文试图将重点放在第一条定律上,即永远不会伤害人类,使用一种新技术,该新技术使用数学算法将目标(例如避免性别偏见)转化为机器学习算法的指令,以训练AI应用程序。
斯坦福大学计算机科学助理教授,该论文的高级作者艾玛·布朗斯基尔(Emma Brunskill)说: “我们希望推动尊重人类用户价值并证明我们对自主系统的信任的人工智能。” 随着社会越来越依赖人工智能,思考如何创建最能尊重安全性和公平性等价值的算法至关重要。
这样的想法是,如果可以用数学方式定义“不安全”或“不公平”的结果,则开发人员可以创建从数据中学习的算法,以减轻潜在的不良行为。当然,任何提议从伦理上清理数据的框架仍将充满技术和道德上的复杂性,但是尽管这可能会限制AI终结人类的任何尝试,但企业如何应对数据无意地使AI倾斜呢?
旧金山埃森哲实验室(Accenture Labs)首席研究科学家埃迪·利昂戈萨里(Edy Liongosari)表示,“技术对于解决行业中的数据偏差问题至关重要”。Liongosari最近在巴塞罗那举行的IoT世界大会活动上发表讲话,概述了负责任AI的框架,该框架围绕组织在处理和使用数据以构建和实现应用程序时需要考虑的业务流程和技术而构建。