一段时间以来,人工智能(AI)尤其是机器学习(ML)领域一直在网络安全领域引起轰动。但是,近年来,有关该技术改变游戏规则的讨论已经达到了狂热的高度,现在人们开始质疑这是否真的是业内许多人坚持认为的灵丹妙药,或者仅仅是已经存在的另一种工具。广泛的武器库?
去年,Gartner强调将AI视为其2019年十大数据和分析技术趋势之一,而在今年早些时候,《福布斯》将其誉为“ 网络安全的未来 ”。
这样的信念也在网络安全专业人员中迅速引起人们的关注。一个凯捷研究所研究超过850高管在IT信息安全,网络安全和IT运营发现:
近三分之二的高管认为,如果没有人工智能,他们无法识别关键威胁
五分之三的组织表示AI提高了网络分析师的准确性和效率
大约四分之三的组织正在测试AI用例
显然,人工智能在强大的网络安全防御中占有一席之地。但是,我们是否在夸大其潜力?
我们对AI和ML会有什么期望?
人工智能及其相关的机器学习,自然语言处理和机器人过程自动化领域可能是现代行业的流行语,但在网络安全领域,它们无疑并不是新事物。
原始的垃圾邮件过滤器是最早用于此目的的机器学习的常见示例,其历史可以追溯到2000年代初。多年来,此类工具进行的分析水平已从过滤某些单词到扫描URL,域,附件等。
但正是AI的最新发展引起了业界的关注。并且有充分的理由。
AI取得了长足的进步,以欺诈检测,恶意软件检测,入侵检测,风险评分和用户/机器行为分析为前五名用例,为一系列威胁向量提供了防御。
这样的用途比您想象的更普遍。凯捷的研究发现,超过一半的企业已经实施了至少五个高影响力案例。
所有这些都表明,当我们问–我们应该相信炒作吗?我们不怀疑AI或ML作为网络安全防御工具的价值。相反,我们在质疑将其视为银弹是否弊大于利。毕竟,如果会议室中的讨论围绕部署AI以增强保护而展开,则存在抵制针对新威胁媒介的自满情绪的风险。
尽管具有所有优点,但AI并未提供全面的解决方案。人工智能也许能够以比人类更快的速度进行更深入的分析,但是距离成为第一道,最后也是唯一的防线还很遥远。
重要的是,我们将AI视为协助网络安全团队工作的工具,而不是替代人工干预的方法-就像将人与机器技术一起应用时,网络防御才最强大。
麻省理工学院(MIT)最近的一项研究发现,将人类专业知识和机器学习系统(即所谓的“监督机器学习”)相结合,比仅人类或机器学习要有效得多。监督模型的性能比仅使用ML的模型好10倍。
人与机器:与AI一起工作
麻省理工学院的研究切入了AI技术如何融入网络防御的核心。当发现和阻止一系列网络攻击时,它是一个强大的工具,但仅靠它是不够的。
人工智能在识别常见威胁方面具有巨大潜力,但只有借助人工协助才能有效防御现代威胁。例如,一个ML系统可能能够识别和消除恶意链接或附件中包含的威胁,但是它在抵御诸如商务电子邮件妥协(BEC)之类的社会工程学攻击方面效率低得多。
尽管ML具有种种进步,但它仍然不是分析细微差别和人类行为特质的好方法-可能会导致遗漏威胁以及高误报率。
为什么这么重要?原因是当今的网络威胁参与者已将其攻击从基础结构和网络转移到了人员:员工无意间仍然是企业的脆弱点,以人为本的安全方法至关重要。
正如AI和ML不应被视为人类专业知识的替代品一样,我们也不应期望取代现有的网络安全技术。在ML之外,静态分析,动态行为分析和协议分析等技术将继续占有一席之地。
好的网络防御必须既广泛又广泛。这意味着通过培训和教育来建立一种安全至上的文化,并以强大的防御技术以及最佳的防护来武装您的团队。
那么,我们应该相信炒作吗?至于AI是可以增强我们的网络防御能力的强大工具–是的。但是,作为对所有这些疾病的唯一治愈方法呢?绝对不。