微软谈论安全机器学习的福利和陷阱
在安全性分析师的情况下,耗尽由安全运营中心收集的万亿安全信号感,如果不是有助于在转向全面吹过的网络攻击之前有助于销售恶意活动的机器。
例如,在Microsoft,每天都通过其天蓝色的云服务,而软件巨头采用数百个安全专业人士,则解析许多数据点超出了人类可以做的,而其网络安全领域CTO Diana Kelley表示。
“这就是人工智能和机器学习[ml]可以进来帮助我们找到有关攻击的早期信息,并看到人类看不到的事情,”Kelley每周在RSA会议亚太和日本举行的日本的侧链上新加坡上周。
微软使用了化合物检测和蒙特卡罗模拟等技术,将低保真信号转换为高保真性。随着机器的学习,可以随着时间的推移拿起可能对人们显而易见的安全事件。
Kelley在某些情况下表示,可以以毫秒为单位检测威胁,而在其他时候它可能需要几分钟的时间,因为兔子赎金软件的案例使得与Wannacry和Nopetya的比较,其中一些受害者数百万美元的损失收入。
微软在Windows设备上遇到了坏兔子,并将其通过Azure Cloud上的多个ML模型。
建立了14分钟的时间来确定恶意软件真正恶意 - 凯利指出的反应是“当你想到实际进入并试图对其进行逆向工程”时“非常迅速”。
虽然ML有助于加快威胁响应周期,但没有佩戴在ML模型上的威胁团队,数据和威胁模型可能最终实现自动化偏差甚至犯罪分子的攻击路径。
“你必须确保你有认知普遍存在,”凯利说。“建立这些模型的团队不仅包括数据安全科学家和计算机工程师,而且还包括律师和隐私专家等人,以便您可以在创建ML模型中采取整体方法。”
在数据方面,Kelley警告了可能导致偏置数据用于培训ML模型的无意识偏差。
使用自动解析CV的ML工具的示例来识别顶部候选人,如果组织雇用主要是男性员工,则数据已经存在偏差。
“在计算机工程和网络安全中,这主要是男性,该工具将认为男性是更好的候选人,因为它们被雇用得更频繁,”Kelley说。
“这也在在线上在线显示用户 - 当用户是一个女人时,她不太可能获得有关新投资机会的信息,因为传统上,男性已经做了更多的投资。”
网络攻击者已经开始操纵ML模型使用的数据,以促使受害者的课程。
“他们尝试了一些非常有趣的攻击,比如改变一个将被分类的像素,因为这可以改变对人类的分类,”凯利说。“他们正试图了解分类的发生方式,以便他们可以养活它。”
根据Gartner的说法,人工智能和ML在安全性的早期用途一直处于恶意软件分类,用户和实体行为分析等领域,以及端点安全性。该技术研究公司预计机器学习将成为2025年的安全策略的正常部分。