专家说,在黑客攻击变得更加复杂的时候,固有偏见的人工智能程序可能会给网络安全带来严重问题。
根据IBM Security副总裁Aarti Borkar的说法,偏差可能发生在三个方面 - 程序,数据和设计这些AI系统的人。
人工智能的作用正在扩展到网络安全领域。许多CEO认为网络攻击是未来十年全球经济面临的最大威胁。
专家告诉CNBC,在黑客攻击变得更加复杂的时候,固有偏见的人工智能程序可能会给网络安全带来严重问题。
根据IBM Security副总裁Aarti Borkar的说法,偏差可能发生在三个方面 - 程序,数据和设计这些AI系统的人。
“一个是算法本身,”她告诉CNBC,指的是教授AI程序执行特定任务的代码行。“它接近的方式是否有偏见,以及它试图解决的结果?”
她解释说,一个有偏见的计划最终可能会关注错误的优先事项,并可能错过真正的威胁。
“如果你试图解决错误的结果,并且结果存在偏差,那么你的算法是有偏见的,”Borkar说。
人工智能的作用正在扩展到网络安全领域。许多CEO认为网络攻击是未来十年全球经济面临的最大威胁。
随着数字威胁的不断发展,防火墙和防病毒被视为古代的工具,黑客现在正在使用更先进的技术,如AI,对企业发起复杂的攻击。
一旦他们能够破坏系统,许多攻击者保持低调,这使得IT团队更难以检测他们的存在。有些人会悄悄地在网络上嗅闻敏感数据,而其他人可能会慢慢改变重要信息而没有人注意到 - 专家说这种情况会随着时间的推移而产生严重影响。
根据行业专业人士的说法,打击这种情况需要依靠人工智能来构建能够自动响应威胁的安全系统。
事实上,科技巨头微软委托进行的一项研究发现,75%接受调查的公司已采用或正在寻求采用人工智能的网络安全计划。
人工智能使我们能够更快地了解问题所在,在人类难以处理所有数据的情况下,微软网络安全现场首席技术办公室的Diana Kelley周二告诉CNBC的“Squawk Box”。
认识到偏见
AI系统通常需要大量所谓的训练数据来学习它们的功能。
Borkar说,如果使用的数据存在偏差,那么人工智能将只了解世界的局部视图,并根据这种狭隘的理解做出决策。
同样,如果设计该计划的人来自相似的文化或背景,并且心胸狭窄,那么认知多样性就会很低。
“那是你开始创建隧道视觉和回声室的时候,”她补充道。
固有偏见可能导致AI系统错误识别可能减慢业务流程,导致信任问题并影响公司底线的问题。在更大范围内,它也会影响公司的品牌。
Borkar补充说,更令人担忧的是,它可能导致程序可能错过完全识别严重威胁的情况。
据她说,网络安全威胁来自各方面,这使得它们“自然多样化”,不偏不倚。
因此,公司需要“同样多样化且同样不偏不倚的人工智能系统 - 否则,一些东西会悄悄进入,所以,这就是漏洞的来源,这就是你错过了什么......因为你没有像对手那样广泛地思考, “ 她说。
尽管如此,微软的Kelley解释说,虽然可能很难完全消除固有的偏见,并且最大限度地减少这种情况“需要对AI提供的数据进行规划和仔细监督”。
“这并不像坏人在等我们学习如何做到这一点。因此,我们到达的越快,越好(我们),“Borkar补充道。