机器学习和对抗性人工智能会是新的内部威胁吗

SoftNight 业务安全 2018年8月23日发布

导语:​机器学习和人工智能正在从概念验证程序转变为功能性企业基础架构。随着对这些技术的资金支持不断攀升,可以预见人工智能的普及是不可避免的。

机器学习(ML)和人工智能(AI)正在从概念验证程序转变为功能性企业基础架构。随着对这些技术的资金支持不断攀升,可以预见人工智能的普及是不可避免的。

但是数字智能的应用带来了新的风险:IT专家面对这急剧的变化,有些无所适从,而网络犯罪分子正在想方设法入侵新工具。

为什么AI无法取代人类专业技能?

现在的安全团队工作过度而且人员不足,但还是有人担心AI工具会最终取代人类专业技能。

为了回应这些担忧,Phys.org网站在2018年6月指出,现在关于人工智能和自动化的讨论被两种思想主导,一种是灾难预言者,他们害怕机器人会取代人类的工作,另一种是乐天派,他们对新技术不以为然,认为世界上没有什么新东西。

然而,研究表明,这些技术只适合取代某些特定的工作任务,而不是彻底消除某些职业。The Verge在2018年6月报道,美国军队的一项实验计划将利用机器学习来更好的预测车辆何时需要维修,这不仅降低了成本,也减轻了技术人员的压力。

在IT安全方面也是如此,使用智能工具来完成繁重的数据维护和数据收集工作,从而将技术专家释放出来去完成其他任务。

机器学习会减少还是增加内部威胁?

虽然新技术不会取代人类的工作,但会增加内部威胁。所有公司都存在内部威胁,比如故意窃取数据的恶意行为或者是无意中泄露公司信息。AI和机器学习并不具备人类的思想和特质来造成这些数据泄露的风险,按理说,它们应该会营造一个更加安全的环境。

然而并不是这样。

正如CSO Online在2018年1月所指出的那样,恶意攻击者也会利用这种技术来污染数据池,从而造成内部威胁。通过篡改数据输入,攻击者也可以破坏数据输出,等到公司发现之时已经为时已晚。

同时,据2018年5月Medium公司报道,一种更微妙的攻击也在不断增长,即对抗性样本。通过创建AI决策能力边界的假样本,网络犯罪分子能够强制产生错误分类,从而破坏机器学习模型的基本信任。

如何防御AI引发的内部威胁?

随着智能工具应用的不断增加,企业如何防御更严重的内部威胁?

最好做到以下几点:

· 建立人际关系:这些新工具只有在执行特定任务时效果最佳,所以公司需要指定人员专门学习研究新工具,对工具了如指掌后,便可以对潜在的威胁建立一道坚固的防线。

· 开发检查和平衡系统:报告的数据是否与观察结果相符?它经过独立验证吗?随着更多关键决策被转移到人工智能和自动化,企业必须开发检查和平衡系统,将输出结果与可信的基准数据进行对比。

· 有目的性的部署工具:在许多方面,智能技术的崛起反映了云技术的崛起。起初,作为一种新技术,这个解决方案很快就成为实现数字化转型的必要条件。这时有可能出现类似的“多即是好”的趋势,但这忽略了人工智能和机器学习作为一种解决特定痛点的方法的关键作用。我们不应该盲目的追赶潮流引进新技术,而应该从发现数据驱动的小问题开始,针对性的安装智能工具来解决这个问题。对智能工具建立数据访问的零信任模型:当攻击面在本质上受到限制时,我们就更容易抑制潜在的威胁了。

机器学习和人工智能工具正在获得企业支持,幸运的是,他们不太可能取代IT技术人员。展望未来,虽然被入侵的智能工具和对抗性人工智能给下一代带来了潜在的威胁,但是人类的协助可以积极应对这些威胁。

本文翻译自:https://securityintelligence.com/news/are-machine-learning-and-adversarial-ai-the-new-insider-threats/如若转载,请注明原文地址: http://www.4hou.com/info/news/12953.html
点赞 4
  • 分享至
取消

感谢您的支持,我会继续努力的!

扫码支持

打开微信扫一扫后点击右上角即可分享哟

发表评论