在资安领域,人工智慧(AI)正引领一场巨大变革,依微软今(20)日发布第六期《Cyber Signals》研究报告,便揭示攻击威胁者如何运用AI提升攻击效率,并进行身份欺诈;以及微软与OpenAI及MITRE合作,透过AI的威胁侦测、行为分析、机器学习模型、零信任原则以及加强验证,保护自身免受这类网路威胁攻击侵害。
|
微软与 OpenAI 及MITRE 合作,透过 AI 的威胁侦测、行为分析、机器学习模型、零信任原则以及加强验证,保护免受网路威胁攻击。 |
因应目前AI既可协助企业组织,以高速击败网路攻击,解决资安人才短缺问题,并推动资安的创新和效率;攻击威胁者也可藉此,提升攻击效率及范围。微软则与OpenAI合作,揭露其观察到有关追踪国家型攻击者的手法与路径,正试图使用大型语言模型(LLMs)来增强其正在进行的网路攻击的早期行动。
同时公布微软如何指导及采取行动阻止的原则,以减轻因为国家型持久攻击威胁者、持久操纵者和使用AI平台和API的网络犯罪集团带来的风险,保护AI平台和用户。这些原则包括:识别和对恶意威胁行为者的行动、通知其他AI服务供应商的使用、与其他利害关系者合作及提升透明度。
因应网路犯罪分子和国家支持的攻击行为者正在寻求利用AI(包括LLMs),来提高攻击的速度及范围,并利用可以进一步实现其目标和攻击及技术的平台。微软还与MITRE合作,将这些LLMs主题的战术、技术和程序(TTPs)整合到 MITRE ATT&CK框架或MITRE ATLAS(人工智慧系统对抗性威胁情境)知识库中,以帮助更广泛的资安社群了解,和侦测LLMs在攻击活动中的新蓝图。
尽管攻击威胁行为者的动机和复杂程度各有不同,但在布署攻击时,他们的共同任务包括侦察、编码和协助学习及使用人类和机器语言。微软采用了多种方法来保护自身免受这类网络攻击威胁的侵害,包括人工智慧的威胁侦测、行为分析、机器学习模型、零信任原则以及加强验证等。
针对企业组织,微软也提出4大建议来应对网路威胁:
1. 限制AI存取范围,并持续评估应用的合适与合规性。
2. 企业应实施严格的输入验证和清理,防范指令提示造成的风险。
3. 企业应评估AI可与组织数据接触的所有领域,要求整个AI供应链保持透明度,包括透过第三方合作夥伴和供应商,并透过零信任和数据治理计划来降低风险。
4. 明确与员工沟通企业的AI使用和风险政策。
此外,因为AI在资讯安全的作用是推动多面向的创新,并提高防御效率。生成式AI也可以高速帮助资安防御者保护其组织,从强化攻击威胁的侦测到简化资安事件回应来重塑资安。包括利用LLMs模型来分析大量数据,揭示网路攻击威胁的模式和趋势,为攻击威胁情报提供有价值的背景资讯。从Microsoft Copilot for Security的用户在所有任务上的准确性提高了44%、速度提升了26%,皆突显了将AI整合到资安防御中的重要性与效益。
如今AI赋予我们适应并防御不断变化的威胁,能够即时侦测异常、快速回应以阻绝风险,并根据组织的需求量身定制防御策略;还有助於解决全球400万名资安专业人才的缺囗,并帮助防御者提高防御的速度与效率。微软强调:「AI带来新的能力,也带来了新的风险。即不仅只是工具,而是资安领域的典范转移,使我们能够抵御复杂的网路攻击威胁,并适应动态的攻击威胁环境。」