文章发表于2025-09-02 09:32:06,归属【信息安全】分类,已有21人阅读
人工智能(AI)无疑是当下的热门话题,最新、最先进的人工智能技术总能占据新闻头条。在众多行业中,网络安全领域或许是受其影响最大 —— 既可能从中获得巨大收益,也可能面临严峻冲击的行业之一。与普遍认知不同的是,该领域的部分从业者二十多年前就已开始以某种形式应用这项技术。如今,云计算的强大算力与先进算法相结合,正进一步强化数字防御能力,或助力打造新一代人工智能应用,这有望彻底改变组织防范、检测和应对网络攻击的方式。
另一方面,随着这些人工智能能力愈发廉价且易于获取,威胁行为者也将其用于社会工程学攻击、虚假信息传播、诈骗等活动。ESET(一家网络安全公司)的最新白皮书旨在揭示网络防御者面临的风险与机遇。
人工智能在网络安全领域的简要发展史
大型语言模型(LLM)或许是全球企业董事会热议人工智能的原因,但多年来,这项技术已在其他方面发挥了重要作用。例如,ESET 早在 25 年前就通过神经网络部署了人工智能,以提高对宏病毒的检测能力。此后,ESET 以多种形式运用人工智能,实现了以下功能:
(1)区分恶意代码样本与干净代码样本
(2)对大量恶意软件样本进行快速分类、排序和标记
(3)构建云信誉系统,借助训练数据实现持续学习模型
(4)结合神经网络、决策树及其他算法,提供高检测率、低误报率的终端保护
(5)开发强大的云沙箱工具,融合多层机器学习检测、解包扫描、实验性检测和深度行为分析技术
(6)基于 Transformer 人工智能模型,打造新型云与终端保护方案
(7)开发 XDR(扩展检测与响应)系统,通过关联、分类和分组大量事件来确定威胁优先级
安全团队为何使用人工智能?
如今,安全团队比以往任何时候都更需要高效的人工智能工具,主要原因如下:
1. 人才短缺问题持续加剧。最新统计显示,全球网络安全专业人才缺口约达 400 万,其中欧洲缺口 34.8 万,北美缺口 52.2 万。组织需要借助工具提高现有员工的工作效率,并在缺乏资深员工的情况下,为威胁分析和补救工作提供指导。与人类团队不同,人工智能可以全年无休运行,并能发现安全专业人员可能遗漏的模式。
2. 威胁行为者灵活多变、意志坚定且资源充足。就在网络安全团队苦苦招募人才之际,其对手的实力却在不断增强。据估计,2025 年之后,网络犯罪经济每年可能给全球造成高达 10.5 万亿美元的损失。潜在的威胁行为者可以轻松获取发起攻击所需的一切资源 —— 这些资源被打包成现成的产品和工具包。第三方中介还提供已被入侵组织的访问权限。甚至一些国家行为体也参与到以经济利益为动机的攻击中。在俄罗斯等国家,政府被怀疑在积极扶持反西方的黑客活动。
3. 风险从未如此之高。多年来,随着数字领域投资的不断增加,组织对 IT 系统的依赖程度也日益加深,IT 系统已成为推动可持续增长和构建竞争优势的核心。网络防御者清楚,若未能防范、及时检测并遏制网络威胁,其所在组织可能遭受重大的财务损失和声誉损害。如今,一次数据泄露事件的平均成本为 445 万美元。而涉及服务中断和数据窃取的严重勒索软件攻击,造成的损失可能是这一数字的数倍。据估计,自 2018 年以来,仅金融机构因服务中断导致的停机损失就已达 320 亿美元。
安全团队如何使用人工智能?
因此,组织纷纷寻求借助人工智能的力量,更有效地防范、检测和应对网络威胁,这不足为奇。具体而言,他们的应用方式包括:通过关联大量数据中的指标来识别攻击;通过发现偏离正常模式的可疑活动来识别恶意代码;通过解读复杂信息和确定警报优先级,为威胁分析师提供支持。
以下是当前及近期人工智能在网络安全领域的积极应用案例:
(1)威胁情报分析:由大型语言模型驱动的生成式人工智能助手能化繁为简,分析晦涩的技术报告,用通俗易懂的英语为分析师总结关键点和可采取的行动。
(2)人工智能助手:在 IT 系统中嵌入人工智能,有助于消除危险的配置错误(此类错误可能使组织暴露于攻击之下)。这一应用既适用于云平台等通用 IT 系统,也适用于防火墙等安全工具(这些工具可能需要更新复杂的设置)。
(3)提升安全运营中心(SOC)效率:如今的 SOC 分析师面临着巨大压力,需要快速检测、响应和遏制来袭威胁。但攻击面的广度以及生成警报的工具数量之多,往往让他们不堪重负。这导致真正的威胁被忽视,而分析师却在误报上浪费时间。人工智能可以通过为警报添加上下文信息并确定优先级,帮助减轻负担。
(4)新型检测能力:威胁行为者的战术、技术和程序(TTP)在不断演变。但通过将入侵指标(IoC)与公开信息和威胁源相结合,人工智能工具可以扫描最新威胁。
人工智能如何被用于网络攻击?
遗憾的是,不法分子也将目光投向了人工智能。英国国家网络安全中心(NCSC)表示,这项技术将 “加剧全球勒索软件威胁”,并 “几乎肯定会在未来两年内增加网络攻击的数量和影响”。目前,威胁行为者是如何使用人工智能的呢?具体如下:
(1)社会工程学攻击:生成式人工智能最明显的用途之一,是帮助威胁行为者大规模制作极具说服力且语法近乎完美的钓鱼攻击内容。
(2)商业电子邮件妥协(BEC)及其他诈骗:生成式人工智能技术可用于模仿特定个人或企业角色的写作风格,诱骗受害者转账或交出敏感数据 / 登录信息。深度伪造音频和视频也可能被用于相同目的。美国联邦调查局(FBI)此前已就此发出多次警告。
(3)虚假信息传播:生成式人工智能还能为运营中的内容创作减轻负担。近期一份报告警告称,俄罗斯已在使用此类策略 —— 若被证明有效,这种做法可能会被广泛效仿。
人工智能的局限性
无论用于善举还是恶行,当前的人工智能都存在局限性。它可能产生较高的误报率,且若缺乏高质量的训练数据集,其效果将大打折扣。此外,通常需要人类进行监督,以检查输出结果的准确性,并训练模型本身。这一切都表明,人工智能既不是攻击者的 “万能钥匙”,也不是防御者的 “灵丹妙药”。
未来,攻防双方的人工智能工具可能会直接交锋 —— 一方试图寻找防御漏洞、欺骗员工,另一方则致力于发现恶意人工智能活动的迹象。一场新的网络安全 “军备竞赛” 已然拉开序幕。