MicrosoftSecurityCopilot是用于网络安全的新GPT-4AI助手

摘要 在宣布为Office应用程序提供人工智能驱动的Copilot助手后,微软现在将注意力转向网络安全。MicrosoftSecurityCopilot是网络安全专业人员的

在宣布为Office应用程序提供人工智能驱动的Copilot助手后,微软现在将注意力转向网络安全。MicrosoftSecurityCopilot是网络安全专业人员的新助手,旨在帮助防御者识别漏洞并更好地了解他们每天可用的大量信号和数据。

由OpenAI的GPT-4生成人工智能和微软自己的安全特定模型提供支持,SecurityCopilot看起来像一个简单的提示框,就像任何其他聊天机器人一样。你可以问“我的企业有哪些安全事件?”它将总结它们。但在幕后,它正在利用Microsoft在其威胁情报收集和安全特定技能中每天收集的65万亿个信号,让安全专业人员追捕威胁。

MicrosoftSecurityCopilot旨在协助安全分析师的工作,而不是取代它-甚至包括供同事协作和共享信息的记事板部分。安全专业人员可以使用SecurityCopilot来帮助进行事件调查或快速总结事件并帮助进行报告。

SecurityCopilot接受自然语言输入,因此安全专业人员可以要求提供特定漏洞的摘要、输入文件、URL或代码片段以供分析——或者要求来自其他安全工具的事件和警报信息。所有提示和响应都已保存,因此调查人员可以进行完整的审计跟踪。

结果可以固定并汇总到一个共享的工作区中,这样同事们就可以进行相同的威胁分析和调查。“这就像为调查人员提供单独的工作空间和共享笔记本,能够宣传你正在做的事情,”微软人工智能安全架构师ChangKawaguchi在接受TheVerge采访时说。

SecurityCopilot最有趣的方面之一是提示簿功能。它本质上是一组步骤或自动化,人们可以将它们捆绑到一个易于使用的按钮或提示中。这可能涉及对脚本进行逆向工程的共享提示,这样安全研究人员就不必等待他们团队中的某个人来执行此类分析。您甚至可以使用SecurityCopilot创建概述事件和攻击媒介的PowerPoint幻灯片。

与Bing非常相似,当安全研究人员询问有关最新漏洞的信息时,Microsoft也会清楚地获取结果。微软使用的信息来自网络安全和基础设施安全局、美国国家标准与技术研究院的漏洞数据库以及微软自己的威胁情报数据库。

不过,这并不意味着微软的SecurityCopilot总能把事情做好。“我们知道有时这些模型会出错,因此我们提供了确保我们获得反馈的能力,”Kawaguchi说。反馈循环比Bing上的点赞或反对要复杂得多。“它比那更复杂一点,因为它有很多可能出错的方式,”川口解释道。微软会让用户准确回答问题所在,以便更好地理解任何幻觉。

“我认为没有人能保证零幻觉,但我们正在努力通过公开来源、提供反馈以及将其基于您自己背景的数据等方式来确保人们能够理解和验证他们看到的数据,”Kawaguchi说。“在其中一些示例中,没有正确答案,因此对于组织和进行调查的个人来说,获得概率答案要好得多。”

虽然微软的SecurityCopilot看起来像Bing一样的提示和聊天机器人界面,但该公司已将其限制为仅用于与安全相关的查询。您将无法在此处获取最新的天气信息或询问SecurityCopilot它最喜欢的颜色是什么。“这不是必应,”川口说。“我们不认为这是一种聊天体验。我们真的认为它更像是一种笔记本体验,而不是自由聊天或通用聊天机器人。”

SecurityCopilot是微软大力推动AI的最新例子。Microsoft365Copilot感觉它将永远改变Office文档,而微软拥有的GitHub正在将其自己的Copilot增强为一个更健谈的助手,以帮助开发人员创建代码。微软似乎并没有放慢其Copilot野心,因此我们很可能会看到这种AI助手技术出现在公司的软件和服务中。

微软今天开始与“少数客户”一起预览这个新的SecurityCopilot,公司没有考虑更广泛地推出它的日期。“我们还没有讨论全面上市的时间表,”川口说。“其中很大一部分是关于学习和负责任地学习,所以我们认为重要的是将它提供给一小群人并开始学习过程并使其成为最好的产品并确保我们负责任地交付它。”

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢。