AI 时代的安全悖论:速度与安全如何兼得?
随着人工智能在企业中的应用加速,其快速适应性也带来了一个安全悖论:如何保护一个不断进化的系统,同时将其扩展到整个企业?
对抗性 AI 正在主导威胁格局,引发了一场隐秘的网络战。攻击者迅速将 AI 的各个方面武器化,包括大型语言模型 (LLM)。AI 的快速采用正在打开新的攻击面,而现有的安全技术无法跟上。
关键在于,对抗性 AI 和防御性 AI 之间的差距正在迅速扩大,企业的安全和财务稳定岌岌可危。从数据投毒到提示注入攻击,攻击者已经开始利用 AI 的漏洞,将这项技术变成了传播虚假信息、安全漏洞和业务中断的工具。
思科的 AI 防御策略旨在弥合对抗性 AI 技术与潜在危害企业之间的差距。鉴于预计到 2028 年,大多数通用 AI 部署将缺乏足够的安全性,思科的时机恰到好处。
Gartner 在其《新兴技术影响雷达:云安全》报告中也指出,到 2028 年,40% 的通用 AI 实施将部署在缺乏足够安全覆盖的 基础设施上,这将使企业前所未有地暴露于 AI 驱动的网络威胁之下。
任何企业都无法在保护 AI 模型方面犹豫不决——他们需要帮助解决管理这种高度适应性资产的悖论,这种资产很容易在不知情的情况下被武器化。
思科于 1 月推出的 AI 防御旨在解决这一难题,它将实时监控、模型验证和策略执行集成到规模化操作中。
AI 最大的优势,也是它为企业带来最大价值的地方,是其自我学习和适应的能力。但这同时也是它最大的弱点。AI 模型是非确定性的,这意味着它们的行为会随着时间的推移而发生变化。这种不可预测性会造成攻击者利用的安全盲点。
随着这种悖论的加剧,隐秘网络战的严重程度正在浮出水面。数据投毒攻击正在破坏训练数据集,导致 AI 生成有偏差、有缺陷或危险的输出。提示注入攻击旨在欺骗 AI 聊天机器人泄露敏感的客户数据或执行损害模型和数据的命令。模型窃取的目标是专有的 AI 模型,窃取知识产权并削弱公司的竞争优势。
影子 AI——即员工未经授权使用 AI 工具,无意中(或有意地)将敏感数据输入 ChatGPT 和 Copilot 等外部 AI 模型——也正在加剧这一问题,而且速度越来越快。
正如思科执行副总裁兼首席产品官 Jeetu Patel 对 VentureBeat 所说:“在拥抱 AI 的过程中,企业和技术领导者无法为了速度而牺牲安全。在一个竞争激烈的动态环境中,速度决定了胜负。”
简而言之:没有安全的速度是一场输掉的比赛。
思科的 AI 防御是专门构建的,将安全嵌入网络基础设施中,以便它可以扩展并保护 AI 开发、发布和使用的各个方面。
该平台的核心功能包括:
- AI 可见性和影子 AI 检测:安全团队可以实时了解授权和未授权的 AI 应用程序,跟踪谁在使用 AI、如何训练 AI 以及它是否符合安全策略。
- 自动模型验证和红队攻击:思科从其 Robust Intelligence 收购中开发的 AI 算法红队攻击,运行数万亿次攻击模拟,在攻击者之前识别漏洞。
- 运行时 AI 安全和自适应执行:AI 模型会进行持续验证,以实时检测和阻止提示注入、数据投毒和对抗性攻击。
- 访问控制和数据丢失防护 (DLP):企业可以防止未经授权的 AI 使用,执行安全策略并确保敏感数据永远不会泄露到外部 AI 模型中。
通过将 AI 安全嵌入思科的网络结构中,AI 防御确保 AI 安全是企业运营的内在组成部分,而不是事后诸葛亮。
由于渴望获得成果并担心落后于竞争对手,越来越多的组织正在加速部署 AI。这种日益增长的“先部署,后安全”的追求成果的做法,充其量是冒险的,而且助长了针对资金雄厚的攻击者的隐秘网络战,这些攻击者有意愿随意攻击目标组织。
思科 2024 年 AI 就绪指数发现,只有 29% 的企业认为自己有能力检测和阻止未经授权的 AI 篡改。这意味着 71% 的企业容易受到 AI 驱动的网络攻击、合规性违规和灾难性 AI 故障的影响。
Gartner 警告说,企业必须实施 AI 运行时防御机制,因为传统的端点安全工具无法保护 AI 模型免受对抗性攻击。
为了保持领先地位,企业必须:
- 采用统一的 AI 安全框架:安全解决方案必须是全面的、自动化的,并嵌入到基础设施中。
- 实施 AI 威胁情报和持续验证:随着威胁格局的快速变化,AI 模型需要持续监控,因为静态防御无法应对。
- 确保跨多云环境的 AI 合规性:全球监管框架正在收紧。企业必须使 AI 安全策略与不断发展的合规性要求保持一致,例如欧盟 AI 法案和 NIST AI 安全框架。
AI 是企业创新的未来,但没有安全保障的 AI 是一种负债。如果任其不受保护,AI 可能会被网络犯罪分子操纵、利用和武器化。
思科 AI 防御不仅仅是一种安全工具,它是一种企业范围的 AI 安全策略。通过集成实时 AI 监控、自动模型验证和网络嵌入式执行,思科正在为规模化 AI 安全设定新的标准。
正如 Patel 警告的那样:“AI 带来的安全挑战是新的和复杂的,漏洞遍布模型、应用程序和供应链。我们必须换个思路。AI 防御是专门构建的,以确保企业能够大胆创新,而无需妥协。”