前途科技
  • AI
  • 初创
  • 报告
我的兴趣
前途科技前途科技
Font ResizerAa
站内搜索
Have an existing account? Sign In
Follow US
Copyright © 2024 AccessPath.com, 前途国际科技咨询(北京)有限公司,版权所有。 | 京ICP备17045010号-1 | 京公网安备 11010502033860号
AI

行为AI:对抗社会工程攻击的希望

NEXTECH
Last updated: 2025年5月2日 上午6:50
By NEXTECH
Share
23 Min Read
SHARE

人工智能时代下的网络安全新挑战

在商业领袖和专家们热烈讨论人工智能发展轨迹的同时,网络罪犯们早已利用人工智能技术发起了毁灭性的攻击。其中,人工智能生成的社会工程学攻击,包括钓鱼攻击和商业邮件欺诈,呈显著上升趋势。开源工具如ChatGPT(以及其恶意变体GhostGPT、FraudGPT和WormGPT)为没有技术背景的诈骗者提供了全新的攻击平台,他们可以大规模地制造出极其逼真、难以辨别的电子邮件攻击,将目标锁定在企业最薄弱的环节——各个层级的员工。

Abnormal Security首席执行官Evan Reiser指出:“人类是组织中最脆弱也是最有价值的终端。传统的安全措施侧重于保护基础设施,但只要人类在商业活动中进行互动,尤其是涉及敏感信息时,他们就会成为攻击者可以利用的漏洞。而现在,人工智能工具让攻击变得更加容易。”

为了应对人工智能生成的攻击浪潮,Reiser认为我们需要采取一些措施:首先,深入了解当前和未来可能出现的社会工程学攻击类型,从个性化且措辞完美的钓鱼邮件到能够完美模仿人类互动的深度伪造技术。其次,采用新的行为分析方法来阻止这些威胁,因为现有的检测工具无法识别高度逼真、看似真实的电子邮件攻击。第三,需要能够以机器速度进行检测和防御的解决方案,这在安全人才缺口日益扩大的时代尤为重要。

Reiser强调,当今最常见的网络犯罪目标是电子邮件渠道——钓鱼攻击是造成数据泄露的首要原因,社会工程学是造成经济损失的主要原因。

他解释说:“如果你想成为一名社会工程师或钓鱼攻击者,人工智能是你所能拥有的最佳工具。ChatGPT可以撰写完美的邮件,因为它了解企业的运作方式,可以非常准确地猜测例如应付部门使用的语言来转移资金,并且可以轻松地为每个目标个性化邮件内容。”

此外,以前需要花费数小时才能完成的攻击现在只需几秒钟。这些社会工程学攻击的丰富性和复杂性比以往任何时候都更加强大,因为它们是由在互联网上所有可用的人类信息集合上训练的大型语言模型(LLM)生成的。这些工具提供了大量关于人们工作方式的关键信息,例如特定行业中特定职位的人员在各种情况下会如何反应等等。

Reiser说:“这些人工智能工具内置了安全机制——例如,它不会告诉你如何从银行偷钱。但如果你说‘我是一名被困在海外的员工,我急需更改我的工资信息’,ChatGPT会帮助你写出一封令人信服的邮件,然后可以被恶意利用。”

过去,罪犯会花费大量时间手动研究和分析最有价值和最脆弱的目标;现在,人工智能可以大规模地实现这一目标。随着社交媒体的普及,现在只需要将LinkedIn个人资料输入人工智能模型,你就能立即获得该人的职位、兴趣、联系人等信息——所有这些信息都有助于罪犯更有效地策划和执行攻击。

我们今天熟悉的大多数主流人工智能工具都是大型语言模型,它们生成文本,因此欺诈性电子邮件和短信迅速增加也就不足为奇了。但其他形式的恶意媒体生成也即将出现,包括深度伪造。我们即将进入一个由人工智能驱动的深度伪造头像可以加入Zoom会议,假扮成可信赖的管理人员的世界。

此外,图像生成技术日新月异,我们即将迎来一个无法区分文本、图像或视频内容真伪的时代,Reiser说。视频技术已经接近这一目标,变得越来越实时和互动。虽然所有这些对“好人”来说都是好事,但我们必须记住,任何技术进步都存在被不法分子利用的风险。

最终,人类使用的任何信息媒介都可能成为攻击者利用的工具。如今的攻击策略正在发生转变,网络罪犯不再专注于突破防火墙,而是更多地使用欺骗战术来欺骗人们。未来的网络犯罪将看到攻击者花费更少的时间专注于基础设施,而更多地利用人工智能等工具通过社会工程学来针对人类行为。

当然,这对安全措施有重大影响,传统的以边界为中心的防御方法将不再有效。当然,你可以阻止一个IP地址,但你无法阻止使用电子邮件、电话或Zoom会议,并希望能够有效地开展业务。

Reiser说:“人类天生易于接触,但也天生容易被欺骗。我们仍然需要人类来完成当今许多知识工作的原因是,与机器人不同,人类可以做出细致入微的判断和决策。不幸的是,这种判断也会受到社会工程学技术的干扰和利用。虽然你可以修补你的防火墙和服务器,但你无法修补你的员工。”

人工智能的爆炸式发展正在推动新一轮网络犯罪的进攻,但也为防御者提供了独特的机会。在对抗恶意人工智能的斗争中,组织需要利用好的人工智能来反击,更好地保护其人类漏洞。

深度伪造技术仍在发展,今天我们中的许多人可以通过身体特征来区分真人和深度伪造。例如,你可能能够区分你同事的Zoom深度伪造,因为你了解他们的说话方式、语调和一般举止。但随着深度伪造技术的日益成熟,识别这些特征将变得越来越困难。我们已经接近这一点了。

这对防御意味着,我们将不得不寻找他们行为中其他更微妙的异常,例如我们的“同事”是否在他们通常在线的时间出现在Zoom上,或者他们是否是这类会议的常客。

Reiser补充说:“我们今天对电子邮件攻击采取了同样的方法。如果一封电子邮件包含已知的入侵指标——例如,一个不良的IP地址,或一个恶意附件或URL——它可以被传统技术工具自动检测和过滤掉。但恶意人工智能颠覆了这一模式,使攻击者能够创建完全不包含这些指标的目标电子邮件,并悄无声息地绕过检测。”

这需要一种新型的解决方案,能够读取行为信号而不是威胁信号,并与为组织内外每个已知联系人建立的行为基线相匹配。这就是好的人工智能发挥强大作用的地方,它可以作为引擎准确地检测和分析行为异常——在攻击有机会到达目标之前将其阻止。

这种方法,即利用人工智能进行行为异常检测来保护人员,已被证明在对抗复杂的电子邮件攻击(包括人工和人工智能生成的攻击)方面非常有效。而电子邮件仅仅是开始——在更广泛的安全用例中扩展行为人工智能安全方面存在着巨大的潜力,其规模是人类安全分析师无法比拟的。

因为虽然人类擅长模式识别,但他们处理的数据量相对较少。在一个拥有10万名员工的公司里,没有哪个安全专业人员能够认识所有这些员工,了解他们的工作内容、工作方式或他们与谁互动——但人工智能可以。它可以将人类使用的相同直觉和模式识别能力应用于大数据规模,以机器速度做出决策。

Reiser说:“这是一种非常有效的方法,我们在电子邮件安全以及其他相关领域都取得了成功。这就是为什么,尽管人工智能的阴暗面让人感到沮丧,但我对它在未来为人类带来的积极潜力以及它如何改变我们作为文明对抗网络犯罪的方式感到乐观。”

这些新的行为人工智能工具不仅降低了对员工的风险,而且还承担了以前由人类承担的大量繁琐工作,例如挖掘日志文件和处理数据,最终为安全运营团队节省了大量时间。Reiser说,这对整个网络安全行业来说都很重要。在一个数百万个安全职位空缺的世界里——而网络攻击却变得越来越复杂——我们需要技术来填补空白,帮助我们迈向一个对每个人来说都是安全的世界。

Reiser说:“要实现这一目标,我们需要确保每个企业都安全,而不仅仅是那些能够在安全解决方案上投入最多资金的企业。人工智能不仅对阻止新的攻击至关重要,而且还有助于我们过渡到一个更可持续的网络安全模式,以文明的层级进行安全保障。”

本文由Abnormal Security赞助。

Share This Article
Email Copy Link Print
Previous Article 20250430230245507.jpg 马斯克xAI应用Grok登顶App Store AI榜首
Next Article ai-china-4stepup.jpg?resize=1200,600 除了DeepSeek,值得关注的四家中国AI创业公司
Leave a Comment

发表回复 取消回复

您的邮箱地址不会被公开。 必填项已用 * 标注

最新内容
快手:2024年Q4快手日活用户4.01亿 同比增长4.8%
报告
全球第一!中国已有超3000万辆新能源汽车 纯电超2000万辆
QuestMobile:2025年3月中国新能源汽车活跃量超3000万辆
报告
乘联会:2025年4月特斯拉中国销量28731辆 同比下滑8.6%
报告
NVIDIA:2025年中国AI芯片市场份额降至50%
报告

相关内容

AI

谷歌AI接入搜索,OpenAI ChatGPT搜索紧随其后

2024年11月14日
AI

AI供应商选谁?OpenAI依然领先

2024年12月6日
20241122190045648.jpg
AI

共和党将继续支持芯片补贴吗?

2024年11月23日
AI

AI合成文本工具助力企业邮件和对话AI训练

2024年10月3日
Show More
前途科技

前途科技是一个致力于提供全球最新科技资讯的专业网站。我们以实时更新的方式,为用户呈现来自世界各地的科技新闻和深度分析,涵盖从技术创新到企业发展等多方面内容。专注于为用户提供高质量的科技创业新闻和行业动态。

分类

  • AI
  • 初创

快速链接

  • 阅读历史
  • 我的关注
  • 我的收藏
Copyright © 2024 AccessPath.com, 前途国际科技咨询(北京)有限公司,版权所有。 | 京ICP备17045010号-1 | 京公网安备 11010502033860号
前途科技
Username or Email Address
Password

Lost your password?