几位专家对AI构成的威胁提出了自己的想法,毫不奇怪,假冒内容是当前最大的危险。
专家在星期二在纽约的WSJ Pro网络安全执行官论坛上发表讲话时认为,人工智能生成的内容是我们社会迫切关注的问题。
社交媒体分析公司Graphika的首席创新官CamilleFrançois说,deepfake文章构成了最大的危险。
我们已经看到了人工生成的“虚假新闻”和虚假信息活动所能起到的作用,因此,对于许多人来说,在此过程中涉及AI是一个主要威胁,这并不令人感到惊讶。
弗朗索瓦(François)强调指出,当今的伪造文章和虚假宣传活动依靠大量的手工工作来创建和传播虚假信息。
弗朗索瓦(François)说:“当您查看虚假宣传活动时,创建假网站和假博客的体力劳动量是巨大的。”
“如果您只是简单地使可信的文本变得自动化,那么它确实以非常自动化和可扩展的方式在垃圾中泛滥成灾。所以我很担心。”
2月,OpenAI 推出了其GPT-2工具,该工具可生成令人信服的假文字。AI接受了跨越800万个网站的40 GB文本的培训。
OpenAI担心会造成损害,因此决定不公开发布GPT-2。但是,八月,两名毕业生决定重新创建 OpenAI的文本生成器。
这些毕业生表示,他们不认为自己的工作目前会对社会构成风险,因此将其发布给全世界,是在没有一家拥有大量资源的公司或政府的情况下可能实现的。
“这让大家有关于安全的重要谈话,研究人员能够帮助确保对未来的潜在滥用,”万尼亚·科恩的毕业生之一,说:有线。
McAfee首席数据科学家兼高级首席工程师Celeste Fralick在WSJ活动上与François在同一小组上发言,建议公司与专门研究深造假的公司合作。
与AI有关的最可怕的网络安全威胁之一是“对抗性机器学习攻击”,黑客利用这种攻击来发现并利用AI系统中的漏洞。
Fralick提供了加利福尼亚大学伯克利分校教授Dawn Song进行的实验示例,其中无人驾驶汽车被误认为仅使用贴纸就可以使停车标志是45 MPH限速标志。
据Fralick称,McAfee本身也进行了类似的实验,并发现了进一步的漏洞。其中之一是,再次修改了35 MPH的速度限制标志,以欺骗无人驾驶汽车的AI。
“我们扩展了三者的中间部分,因此赛车没有将其识别为35。它认为它是85。”她说。
两位小组成员都认为,除了采用应对攻击的策略外,还需要对整个员工进行有关AI构成的威胁的教育。
弗朗索瓦总结说:“确保人们具有基本的AI素养非常紧迫。”