如何预防黑客攻击人工智能和机器学习

阻止勒索软件已成为许多组织的优先事项。因此,他们正在转向人工智能(AI)和机器学习(ML)作为他们的防御选择。然而,威胁者也正在转向人工智能和ML来发动他们的攻击。一种特定类型的攻击,即数据中毒,就利用了这一点。

【安防在线 www.anfang.cn】阻止勒索软件已成为许多组织的优先事项。因此,他们正在转向人工智能(AI)和机器学习(ML)作为他们的防御选择。然而,威胁者也正在转向人工智能和ML来发动他们的攻击。一种特定类型的攻击,即数据中毒,就利用了这一点。

为什么AI和ML有风险

像任何其他技术一样,人工智能是一个双刃剑。YouAttest的首席执行官Garret Grajek在一次电子邮件采访中说,人工智能模型擅长处理大量数据并得出 “最佳猜测”。

如何预防黑客攻击人工智能和机器学习

他说:“黑客已经使用AI来攻击身份验证和身份验证,包括语音和可视化黑客攻击。” ““武器化的AI”致力于获取访问密钥。”

康奈尔大学的研究人员解释说:“专业数据中毒是对机器学习的有效攻击,并且通过将中毒数据引入训练数据集来威胁模型完整性。”

是什么使通过AI和ML进行的攻击不同于典型的“系统中的错误”攻击?Marcus Comiter在哈佛大学Belfer科学与国际事务中心的论文中说,这些算法存在固有的局限性和弱点,无法解决。

“ AI攻击从根本上扩展了可用于执行网络攻击的实体的集合,” Comiter补充说。“有史以来第一次,物理对象现在可以用于网络攻击。还可以使用这些攻击以新的方式将数据武器化,要求改变数据的收集,存储和使用方式。”

人为错误

为了更好地了解威胁者如何利用AI和ML作为数据中毒和其他攻击的攻击载体,我们需要更清楚地了解他们在保护数据和网络方面的作用。

问问首席信息安全官,对一个组织的数据最大的威胁是什么,他们往往会告诉你是人性。

员工并不打算成为网络风险,但他们是人。人是可以分心的。他们今天错过了一个昨天就能轻易避免的威胁。一个急于赶截稿并期待得到一份重要文件的员工可能最终点击了一个受感染的附件,误以为那是他们需要的文件。或者,员工可能根本没有意识到,因为他们的安全意识培训太不连贯,没有留下印象。威胁者知道这一点,并且像任何好的罪犯一样,他们正在寻找进入网络和获取数据的最简单方法。网络钓鱼攻击之所以如此普遍,是因为它们非常好用。

使用异常行为作为风险因素

这就是AI和ML恶意软件检测发挥作用的地方。这些技术找到模式并分析用户行为,在其变成问题之前嗅出奇怪的行为。通过应用生成的算法,ML识别出人类不可能做到的异常行为。例如,它可以检测到一个员工的正常工作日或他们的击键节奏,并为不正常的事情设置警报。

当然,这并不完美。有人可能在正常工作时间之外工作,或者有影响他们打字方式的伤病。但这些工具的设计是为了捕捉一些不寻常的东西,例如威胁者使用被盗的证书。

充其量,我们可以使用AI通过告诉无监督计算机和网络上真实文件与恶意文件之间的区别,阻止对不良文件的访问来更好地保护网络免受勒索软件攻击。AI可以嗅探影子IT,告诉威胁的授权连接,并深入了解员工使用的端点数量。

为了使AI和ML成功应对网络威胁,他们依赖于在指定时间段内创建的数据和算法。这样一来,他们就可以有效地发现问题(并使安全团队腾出时间来执行其他任务)。这也是威胁。AI和ML的上升直接导致了数据中毒的潜在威胁。

了解数据中毒

有两种毒害数据的方法。一种是将信息注入系统,以便它返回错误的分类。从表面上看,对算法进行毒化看起来并不那么困难。毕竟,AI和ML只知道人们教给他们什么。想象一下,您正在训练一种算法来识别马匹。您可能会显示数百张棕色马的图片。同时,您教它通过看数百张黑白母牛的图片来识别母牛。但是,当一头棕色的母牛滑入数据集中时,机器会将其标记为一匹马。对于该算法,棕色动物就是一匹马。人类将能够识别出差异,但是除非算法指定母牛也可以是棕色,否则机器将无法识别。

如果威胁行动者访问了训练数据,则他们可以操纵该信息以向AI和ML讲授他们想要的任何东西。他们可以使他们将良好的软件代码视为恶意代码,反之亦然。攻击者可以重建人类行为数据,以发起社会工程学攻击或确定使用勒索软件攻击的目标。

威胁参与者的第二种方式可以利用训练数据来生成后门。

黑客可能会使用AI来帮助选择最值得利用的漏洞。因此,可以将恶意软件放置在企业中,在这些企业中,恶意软件本身可以决定攻击的时间以及最佳的攻击媒介。这些攻击(根据设计,是可变的),使得检测起来更加困难和时间更长。” Grajek说。

攻击者如何使用数据中毒

数据中毒需要注意的重要一点是,威胁参与者需要访问数据培训程序。因此,您可能正在面对内部攻击,商业竞争对手或民族国家的攻击。

Bruce Draper博士在DARPA研究项目中写道: “对抗性AI的当前研究重点在于那些无法感知的ML输入扰动可能欺骗ML分类器,从而改变其响应的方法。” “尽管对抗性AI领域还比较年轻,但已经提出了数十种攻击和防御措施,目前还缺乏对ML漏洞的全面理论理解。”

攻击者还可以使用数据中毒来使恶意软件更智能。威胁参与者使用它克隆短语来欺骗算法来破坏电子邮件。现在,它甚至进入了生物识别技术,攻击者可以在其中锁定合法用户并潜入。

数据中毒和深度伪造

深度欺诈是一种数据中毒的水平,许多人预计这将是数字犯罪的下一波浪潮。攻击者编辑视频,图片和录音以制作逼真的图像。因为它们可能被很多人误认为是真实的照片或视频,所以它们是勒索或尴尬的成熟技术。正如科米特指出的那样,在公司层面使用这种方法的一种变体也可能导致人身危险。

他写道:“人工智能攻击可以在自动驾驶汽车的眼睛上将停车标志变成绿灯,只需在停车标志本身上放几条胶带即可。”

假新闻也属于数据中毒。社交媒体中的算法已损坏,以允许不正确的信息上升到一个人的新闻提要的顶部,从而取代了真实的新闻来源。

阻止数据中毒攻击

数据中毒仍处于起步阶段,因此网络防御专家仍在学习如何最好地防御这种威胁。渗透测试和进攻性安全测试可能会导致发现漏洞,使外部人员可以访问数据培训模型。一些研究人员还正在考虑设计AI和ML的第二层,以捕获数据训练中的潜在错误。当然,具有讽刺意味的是,我们需要一个人来测试AI算法,并检查一头母牛是一头母牛而不是一匹马。

“人工智能只是攻击者武器库中的又一武器,”格雷厄克说。黑客仍将希望在整个企业范围内迁移,提升其执行任务的特权。持续不断的实时特权升级监控对于帮助缓解是否由AI造成的攻击至关重要。”

该文观点仅代表作者,本站仅提供信息存储空间服务,转载请注明出处。若需了解详细的安防行业方案,或有其它建议反馈,欢迎联系我们

(0)
小安小安

相关推荐

  • 深度学习为什么再一次的火遍安防圈?

    2016北京安博会近日落幕,连着四天白天晚上的加班已经让安防圈的各位媒体精疲力尽,虽然很累,但也收获巨大。要说什么技术在安博会上火了一把,我以为是深度学习。深度学习为什么再一次的火遍安防圈?

    2023年9月14日
  • 人工智能技术现状剖析及发展趋势

    AI技术一直处于计算机技术的前沿,其研究的理论和发展在很大程度上将决定计算机技术的发展方向。目前很多AI的研究成果深刻地改变着人们的生活,将来,AI的发展将会更加快速,会给人们的生活工作和教育带来更大的影响。

    2024年4月5日
  • 物理知识可以协助应对人工智能的关键挑战

    在今天发表在《科学报告》杂志上的一篇文章中,研究人员展示了如何采用一个世纪前引入的物理概念来解决这两个挑战,该物理概念描述了铁块冷却过程中磁体的形成。

    2024年4月5日
  • 新的人工智能系统只需几个人工神经元就能控制一辆汽车

    人工智能已经进入我们日常生活的搜索引擎。这与近年来巨大的计算能力有关。但是人工智能研究的最新结果表明,更简单、更小的神经网络可以比以前更好、更有效、更可靠地解决某些任务。

    2024年11月16日
  • 坐拥两大技术,你将改变视频监控行业

    人工智能发展方兴未艾,随着影像数据不断增加,也已成为安全监控的关键。本文将重点分析,深度学习科技如何在影像监控领域脱颖而出。

    2024年4月4日
  • 缘何安防“三巨头”共同发展人工智能?

    今年以来,尤其是AlphaGo战胜李世石之后,“人工智能”的概念再次进入到人们的视野当中。同样地,在今年的北京安防展中,海康威视、大华、宇视纷纷展出基于人工智能或是机器视觉的产品。

    2024年4月4日