{{ title }}
{{ errorMessage }}


{{ errorMessage }}





{{ registerSuccessMessage }}
首页>行业资讯> 正文 
收藏
点赞
投稿
人工智能开创网络安全新纪元:2024 年预测
  2024-03-13   

作者:May Wang 博士,Palo Alto Networks 物联网安全首席技术官

近几年来,人工智能 (AI) 一直是网络安全领域的赌注,但大型语言模型 (LLM) 的广泛采用使 2023 年成为尤其令人兴奋的一年。事实上,大型语言模型已经开始转变网络安全的整个格局。然而,它也产生了前所未有的挑战。

一方面,大型语言模型使处理大量信息变得容易,让每个人都可以利用人工智能。大型语言模型可以为管理漏洞、防止攻击、处理警报和响应事故提供惊人的效率、智能和可扩展性。

另一方面,攻击者也可以利用大型语言模型来提高攻击效率,利用大型语言模型引入的额外漏洞,而滥用大型语言模型可能会造成更多网络安全问题,例如由于人工智能的普遍使用而导致的无意数据泄露。

大型语言模型的部署需要一种新的网络安全思维方式。这种思维更具活力、互动性和个性化。在硬件产品的时代,硬件只有在被下一个新版本的硬件取代时才会发生变化。在云时代,可以更新软件并收集和分析客户数据来改进下一版本的软件,但前提是发布了新版本或补丁。

现在,在人工智能的新纪元,客户使用的模型有了自己的智能,可以不断学习,根据客户的使用情况改变 — 要么更好地服务于客户,要么向错误的方向倾斜。因此,我们不仅需要在设计中建立安全性 — 确保我们构建安全的模型并防止训练数据中毒 — 而且还要在部署后继续评估和监控 LLM 系统的安全性、保障性和道德性。

最重要的是,我们需要在我们的安全系统中内置智能(例如向儿童灌输正确的道德标准,而不仅仅是规范儿童的行为),这样他们才能适应性地做出正确而坚定的判断,而不会轻易被不良意见所迷惑。

大型语言模型为网络安全带来了什么,是好还是坏?我将分享我们在过去一年中的收获以及我对 2024 年的预测。


回顾 2023 年

一年前(大型语言模型时代之前),我在撰写机器学习在网络安全中的未来时,指出了人工智能在网络安全领域面临的三个独特挑战:准确性、数据短缺和缺乏基本事实,以及三个虽然常见但在网络安全领域更为严峻的人工智能挑战:可解释性、人才稀缺和人工智能安全。

一年后的现在,经过大量探索,我们发现大型语言模型在这六个领域中的四个领域帮了大忙:数据短缺、缺乏基本事实、可解释性和人才稀缺。另外两个领域 — 准确性和人工智能安全,是极其关键的,但仍然非常具有挑战性。

我从两个方面总结了在网络安全领域使用大型语言模型的最大优势:


1.数据

标注数据

使用大型语言模型帮助我们克服了没有足够“标注数据”的挑战。

要使人工智能模型和预测更准确、更适合网络安全用例,就必须要有高质量的标注数据。然而,这些数据很难获得。例如,很难发现能让我们了解攻击数据的恶意软件样本。遭到入侵的企业并不热衷于分享这些信息。

大型语言模型有助于收集初始数据并根据现有的真实数据合成数据,对其进行展开以生成有关攻击来源、载体、方法和意图的新数据,然后使用这些信息来构建新的检测,而不局限于实地数据。

基本事实

正如我一年前的文章中提到的,我们并不总是掌握网络安全的基本事实。我们可以使用大型语言模型,通过发现我们的检测与多个恶意软件数据库之间的差距、降低误报率和频繁地重新训练模型来显着改善基本事实。


2.工具

大型语言模型特别擅长使网络安全运营变得更容易、更用户友好、更具可操作性。到目前为止,大型语言模型对网络安全的最大影响体现在安全运营中心 (SOC)。

例如,利用大型语言模型实现 SOC 自动化背后的关键能力是函数调用,这样有助于将自然语言指令转化为可直接操纵 SOC 的 API 调用。大型语言模型还可以协助安全分析师更智能、更快速地处理警报和事故响应。大型语言模型使我们能够通过直接从用户那里获取自然语言命令来集成五花八门的网络安全工具。

可解释性

以前的机器学习模型表现很好,但无法回答“为什么?”的问题。大型语言模型有望通过准确而自信地解释原因来改变游戏规则,这将从根本上变革威胁检测和风险评估。

大型语言模型快速分析大量信息的能力有助于关联来自不同工具的数据:事件、日志、恶意软件系列名称、来自常见漏洞和暴露 (CVE) 的信息,以及内部和外部数据库。这不仅有助于找到警报或事故的根本原因,还可以极大地缩短事故管理的平均解决时间 (MTTR)。

人才稀缺

网络安全行业的失业率为负。我们没有足够的专家,人类也无法追赶海量的警报。鉴于大型语言模型的优势:快速汇集和消化大量信息、理解自然语言命令、将命令分解成必要步骤以及找到执行任务的正确工具,大型语言模型极大地减轻了安全分析师的工作量。

从获取领域知识和数据到剖析新的样本和恶意软件,大型语言模型可以帮助我们更快、更有效地促进构建新的检测工具,使我们能够自动完成从识别和分析新的恶意软件到查明不良行为者的工作。

我们还需要为人工智能基础设施构建正确的工具,这样每个人不必成为网络安全专家或人工智能专家,也能从在网络安全领域利用人工智能中受益。


2024 年的三大预测

人工智能在网络安全领域的应用越来越广泛,很明显,我们正处于一个新时代的开端 – 也就是通常所说的“曲棍球效应”增长的早期阶段。我们对能够改善安全状况的大型语言模型了解得越多,就越有可能在充分利用人工智能方面领先于潮流(以及我们的对手)。

我认为,在网络安全领域,有很多方面都已经成熟,可以讨论越来越多地使用人工智能来放大力量,对抗复杂性和不断扩大的攻击载体,但有三件事很突出:


1.模型

人工智能模型将在创造植根于网络安全需求的深入领域知识方面取得巨大进步。

去年,人们对改进通用大型语言模型给予了很多关注。研究人员努力让模型变得更智能、更快、更便宜。然而,这些通用模型可以交付的功能与网络安全的需求之间存在巨大差距。

具体来说,我们的行业不一定需要一个巨大的模型来回答“如何制作佛罗伦萨鸡蛋”或“谁发现了美洲”这样多元的问题。相反,网络安全需要超精确模型,具备网络安全威胁、流程等深入的领域知识。

在网络安全中,准确性至关重要。例如,我们每天在 Palo Alto Networks 处理来自世界各地 SOC 的超过 75TB 的数据。即使 0.01% 的错误检测判定也可能是灾难性的。我们需要具有丰富安全背景和知识的高精度人工智能,提供专注于客户安全需求的定制服务。换句话说,这些模型需要执行的具体任务更少,但精确度更高。

工程师们在创建具有更多垂直行业和特定领域知识的模型方面取得了巨大进步,我相信,以网络安全为中心的大型语言模型将在 2024 年出现。


2.用例

网络安全领域的大型语言模型将出现变革性用例。这将使大型语言模型对于网络安全不可或缺。

2023 年,每个人都对大型语言模型的惊人能力感到无比兴奋。人们用这把“锤子”去敲击每一颗“钉子”。

2024 年,我们将了解到并非每个用例都最适合大型语言模型。我们将针对与大型语言模型的优势相匹配的特定任务,推出真正的大型语言模型赋能的网络安全产品。这将真正为客户提高效率、改善生产力、增强可用性、解决现实问题并降低成本。

试想一下,能够阅读成千上万有关安全问题的剧本,例如配置端点安全设备、排除性能问题、使用适当的安全凭据和权限引入新用户,以及逐个供应商地分解安全架构设计。

大型语言模型以可扩展且快速的方式消耗、总结、分析以及生成正确信息的能力将改变安全运营中心,并彻底变革调度安全专业人员的方式、地点和时间。


3.人工智能安全与保障

除了利用人工智能实现网络安全之外,如何在不损害人工智能模型智能的情况下构建安全的人工智能和安全的人工智能使用也是一个重要的话题。在这个方向上已经有很多讨论和伟大的工作。2024 年,真正的解决方案将得到部署,尽管这些解决方案可能只是初步的,但它们将是朝着正确方向迈出的一步。此外,还需要建立智能评估框架,动态评估人工智能系统的安全性和保障性。

请记住,大型语言模型也可能被不良行为者所利用。例如,黑客可以使用大型语言模型轻松生成大量质量更高的网络钓鱼电子邮件。还可以利用大型语言模型来创建全新的恶意软件。但行业在使用大型语言模型方面正在采取更加协作和战略性的行动,帮助我们相对于对手取得领先并保持领先。

2023 年 10 月 30 日,美国总统约瑟夫·拜登发布了一项行政命令,内容涉及负责任且适当地使用人工智能技术、产品和工具。这项命令的目的涉及要求人工智能供应商采取一切必要手段,确保其解决方案用于适当用途,而非恶意目的。

人工智能安全和保障代表一种真正的威胁 — 我们必须认真对待这种威胁,并且要假设黑客已经在设计部署来攻击我们的防御。人工智能模型已经得到广泛使用,这一简单事实导致攻击面和威胁载体大幅扩张。

这是一个充满活力的领域。人工智能模型每天都在进步。即使是在部署人工智能解决方案后,模型也会不断发展,永远不会保持静止。我们非常需要持续的评估、监控、保护和改进。

越来越多的攻击将使用人工智能。作为一个行业,我们必须把开发安全的人工智能框架作为首要任务。这就好比当今的登月计划,涉及供应商、企业、学术机构、政策制定者、监管机构 — 整个技术生态系统的通力合作。毫无疑问,这将是一项艰巨的任务,但我想我们都意识到这是一项多么重要的任务。


结语:最好的还在后头

在某种程度上,ChatGPT 等通用人工智能模型的成功已经让我们在网络安全方面被宠坏了。我们都希望能够构建、测试、部署并不断改进我们的大型语言模型,使它们更加以网络安全为中心,但我们却被提醒,网络安全是应用人工智能的一个非常独特、专业、棘手的领域。我们需要从数据、工具、模型和用例这四个关键方面入手,使其发挥作用。

好消息是,我们可以接触到许多聪明、坚定的人,他们有远见,能够理解为什么我们必须推进更精确的系统,将功能、智能、易用性以及最重要的网络安全相关性结合起来。

我有幸在这个领域工作了很长时间,Palo Alto Networks 内部的同事和我们周围的行业每天都在取得进步,这让我感到非常兴奋和欣慰。

回到预言家这个棘手的问题上,我们很难对未来有绝对的把握。但我确实知道这两件事:

  • 2024 年将是人工智能在网络安全领域大显身手的一年。

  • 而与未来相比,2024 年将显得黯然失色。


分享到:
  点赞
  收藏
  打印
评论(0
已输入0
最新文章
 2024-01-26
 2024-01-25
 2024-01-22
 2024-01-17
Baidu
map