澳大利亚的网络安全研究人员找到了一种方法,可以欺骗BlackBerry Cylance提供的基于AI的防病毒引擎,使其接受恶意软件为合法,这一发现可能使一些人对新兴的人工智能驱动的网络安全领域中使用的方法产生怀疑。
该方法由Skylight Cyber 的 Adi Ashkenazy和Shahar Zini进行了详细描述,并在今天由Motherboard 首次报道,该方法涉及颠覆Cylance端点PROTECT检测系统中的机器学习算法。该方法不涉及更改恶意软件中的代码以颠覆检测过程,而是使用“全局旁路”方法来欺骗Cylance算法。
在这种情况下,绕过方法涉及从非恶意文件中获取字符串,并将其添加到恶意文件中,以诱使系统认为它是良性的。据说该方法之所以有效,是因为Cylance的机器学习算法已经过训练以偏爱良性文件,如果它从良性文件中看到了附加到恶意文件的字符串,则它将忽略恶意代码。
“据我所知,这是对安全公司的机器学习机制的世界范围内的,经过验证的全球攻击,” Ashkenazy告诉Motherboard。“经过大约四年的关于AI的超级炒作,我认为这是一个卑鄙的例子,说明这种方法如何提供传统的[防病毒软件]无法提供的新攻击面。”
这可能是首次公开演示利用人工智能和机器学习的新威胁向量,但是网络安全公司Venafi Inc.安全策略和威胁情报副总裁Kevin Bocek 告诉SiliconANGLE,总体思路并不新鲜。
“安全研究人员已经知道,下一代AV可以在相当长的一段时间内被欺骗;特别是,我们知道代码签名证书可以使各种恶意软件逃避检测。” Bocek解释说。“这就是Stuxnet如此成功的原因-它也逃避了AV检测-并在当今许多恶意软件活动中得到了使用。”
他补充说,这项研究提醒安全团队,网络罪犯有逃避下一代防病毒工具的能力,因此“我们都应该期望将来会看到类似的漏洞。”
恶意软件保护公司Bromium Inc.首席执行官Gregory Webb 指出,这一消息使人们对将代码归类为“好”或“坏”的概念提出了疑问。
韦伯说:“这暴露了让机器来决定什么可以和不可以信任的局限性。” “最终,人工智能不是灵丹妙药。”
尽管他说AI可以提供有价值的见解和预测,但“并非每次都是正确的,而且总是容易出错的。如果我们对这样的系统知道什么是好是坏的能力抱有太大的信任,我们将面临巨大的风险-如果不加注意,这将造成巨大的安全盲点,就像这里的情况一样。”