网络攻击的频率逐年增加,数据泄露的成本也越来越高。无论公司是在开发过程中保护其 AI 系统,还是利用其算法来改善其安全态势,都必须缓解网络安全风险。联邦学习可能能够同时实现这两点。
联邦学习是一种 AI 开发方法,其中多个参与方分别训练单个模型。每个参与方从中央云服务器下载当前的主算法。他们在本地服务器上独立训练其配置,并在完成后将其上传。这样,他们就可以远程共享数据,而无需公开原始数据或模型参数。
中央算法会根据从每个独立训练的配置接收到的样本数量进行加权,并将它们聚合以创建一个单一的全局模型。所有信息都保留在每个参与方的本地服务器或设备上——中央存储库对更新进行加权,而不是处理原始数据。
联邦学习的普及率正在迅速上升,因为它解决了常见的与开发相关的安全问题。它也因其性能优势而备受追捧。研究表明,这种技术可以将图像分类模型的准确率提高高达 20%——这是一个巨大的提升。
联邦学习有两种类型。传统的选择是水平联邦学习。在这种方法中,数据分布在各种设备上。数据集共享特征空间,但具有不同的样本。这使边缘节点能够协作训练机器学习 (ML) 模型,而无需共享信息。
在垂直联邦学习中,情况正好相反——特征不同,但样本相同。特征在参与者之间垂直分布,每个参与者拥有关于同一组实体的不同属性。由于只有一方可以访问完整的样本标签集,因此这种方法可以保护隐私。
传统的开发容易出现安全漏洞。虽然算法必须拥有庞大、相关的数据集才能保持准确性,但涉及多个部门或供应商会为攻击者创造可乘之机。他们可以利用缺乏可见性和广泛的攻击面来注入偏差、进行提示工程或窃取敏感的训练数据。
当算法部署在网络安全角色中时,它们的性能会影响组织的安全态势。研究表明,当处理新数据时,模型的准确性可能会突然下降。虽然 AI 系统可能看起来很准确,但它们在其他地方进行测试时可能会失败,因为它们学会了采取虚假捷径来产生令人信服的结果。
由于 AI 无法批判性地思考或真正考虑上下文,因此其准确性会随着时间的推移而下降。即使 ML 模型在吸收新信息时会不断发展,但如果它们的决策技能基于捷径,它们的性能也会停滞不前。这就是联邦学习发挥作用的地方。
通过分散更新训练中央模型的其他显著优势包括隐私和安全性。由于每个参与方都独立工作,因此没有人需要共享专有或敏感信息来推进训练。此外,数据传输越少,中间人攻击 (MITM) 的风险就越低。
所有更新都经过加密以确保安全聚合。多方计算将它们隐藏在各种加密方案后面,降低了发生泄露或 MITM 攻击的可能性。这样做可以增强协作,同时最大程度地降低风险,最终改善安全态势。
联邦学习的一个被忽视的优势是速度。它的延迟远低于其集中式对应物。由于训练是在本地进行的,而不是在中央服务器上进行的,因此算法可以更快地检测、分类和响应威胁。最小的延迟和快速的数据传输使网络安全专业人员能够轻松地处理恶意行为者。
在利用这种训练技术之前,AI 工程师和网络安全团队应该考虑几个技术、安全和操作因素。
AI 开发成本高昂。构建自己的模型的团队应该预计在前期花费 500 万美元到 2 亿美元,以及每年 500 万美元以上的维护费用。即使在多个参与方之间分摊成本,财务承诺也是巨大的。企业领导者应该考虑云计算和边缘计算成本。
联邦学习也是计算密集型的,这可能会带来带宽、存储空间或计算方面的限制。虽然云计算能够按需扩展,但网络安全团队如果不小心,可能会面临供应商锁定。战略性地选择硬件和供应商至关重要。
虽然分散式训练是安全的,但它缺乏透明度,这使得有意偏差和恶意注入成为一个问题。在中央算法聚合模型更新之前,需要一个共识机制来批准模型更新。这样,他们就可以最大程度地降低威胁风险,而不会牺牲机密性或公开敏感信息。
虽然这种机器学习训练技术可以改善公司的安全态势,但没有 100% 安全的东西。在云中开发模型存在内部威胁、人为错误和数据丢失的风险。冗余是关键。团队应该创建备份以防止中断并在必要时回滚更新。
决策者应该重新审视其训练数据集的来源。在 ML 社区中,数据集的借用非常普遍,这引发了对模型错配的合理担忧。在 Papers With Code 上,超过 50% 的任务社区至少 57.8% 的时间使用借用数据集。此外,那里 50% 的数据集来自仅 12 所大学。
一旦主算法聚合并加权参与者的更新,它就可以重新共享以用于其训练的任何应用程序。网络安全团队可以使用它来进行威胁检测。这里的优势是双重的——虽然攻击者无法轻易窃取数据,因此只能猜测,但专业人员可以汇集见解以获得高度准确的输出。
联邦学习非常适合威胁分类或攻击指标检测等相邻应用程序。AI 的大型数据集和广泛的训练构建了它的知识库,培养了广泛的专业知识。网络安全专业人员可以使用该模型作为统一的防御机制来保护广泛的攻击面。
ML 模型——尤其是那些进行预测的模型——随着时间的推移容易发生漂移,因为概念会发生变化或变量变得不再相关。使用联邦学习,团队可以定期使用不同的特征或数据样本更新其模型,从而获得更准确、更及时的见解。
无论公司是想保护其训练数据集还是利用 AI 进行威胁检测,都应该考虑使用联邦学习。只要他们战略性地应对潜在的内部威胁或泄露风险,这种技术可以提高准确性和性能,并加强其安全态势。