AI 智能体:未来已来,它们将如何改变我们的工作方式?
人工智能领域正经历着前所未有的热潮,而智能体(Agent)无疑是其中的明星。从 Google DeepMind 到 OpenAI,再到 Anthropic,科技巨头们都在竞相赋予大型语言模型执行任务的能力,这在业界被称为“智能化 AI”。
“我们相信,在 2025 年,我们将看到首批 AI 智能体‘加入职场’,并实质性地改变公司的产出。” OpenAI 的 CEO Sam Altman 在最近的一篇博文中如此预言。
简单来说,智能体是一种能够自主执行任务的软件系统,通常需要极少的监督甚至无需监督。任务越复杂,智能体就需要越聪明。如今,大型语言模型已经足够智能,可以驱动智能体完成各种各样的任务,例如填写表格、查找食谱并将其添加到在线购物篮中,或者在会议前使用搜索引擎进行最后一刻的研究并生成简要的要点总结。
去年 10 月,Anthropic 展示了迄今为止最先进的智能体之一:其 Claude 大型语言模型的扩展——“计算机使用”。顾名思义,它允许你像人一样指示 Claude 使用计算机,通过移动光标、点击按钮和输入文本。现在,你不仅可以与 Claude 进行对话,还可以要求它为你执行屏幕上的任务。
Anthropic 指出,这项功能仍然比较笨拙且容易出错。但它已经提供给少数测试人员使用,包括 DoorDash、Canva 和 Asana 等公司的第三方开发者。
“计算机使用”只是智能体未来发展的一个缩影。为了了解接下来会发生什么,MIT Technology Review 采访了 Anthropic 的联合创始人兼首席科学家 Jared Kaplan。以下是他在 2025 年对智能体发展趋势的四点预测:
1. 智能体将更擅长使用工具
“我认为,思考 AI 能力有两个维度。一个是系统能够完成的任务的复杂程度。随着 AI 系统变得越来越智能,它们在这方面也越来越出色。但另一个非常重要的维度是 AI 可以使用哪些环境或工具。
“例如,如果你回到大约 10 年前 DeepMind 的围棋模型 AlphaGo,我们会发现 AI 系统在玩棋盘游戏方面已经超越了人类。但如果你只能与棋盘游戏互动,那么这将是一个非常有限的环境。即使它非常聪明,实际上也没有用。随着文本模型、多模态模型,以及现在的‘计算机使用’——也许未来还包括机器人——我们正在将 AI 带入不同的场景和任务中,使其变得有用。
“我们之所以对‘计算机使用’感到兴奋,正是因为这个原因。直到最近,对于大型语言模型来说,必须为它们提供非常具体的提示,提供非常具体的工具,然后它们就被限制在特定类型的环境中。我认为,‘计算机使用’可能会在模型完成不同任务和更复杂任务的能力方面迅速提高。同时,它们也能够意识到自己犯了错误,或者意识到某个问题非常重要,需要向用户征求反馈。”
2. 智能体将理解上下文
“Claude 需要了解你的特定情况以及你所处的约束条件,才能发挥作用。例如,你所处的角色是什么,你和你所在的组织需要什么样的写作风格或需求。

“我认为,我们将看到 Claude 在这方面的改进,它能够搜索你的文档、Slack 等内容,并真正了解对你来说什么有用。这在智能体中有点被低估了。系统不仅需要有用,还需要安全,做你期望它做的事情。
“另外,很多任务并不需要 Claude 进行太多推理。你不需要花几个小时思考才能打开 Google Docs 或者其他什么东西。因此,我认为我们将看到的不只是更多的推理,而是将推理应用于真正有用和重要的场景,同时在不必要的时候避免浪费时间。”
3. 智能体将使代码助手更强大
“我们希望让开发者尽早体验‘计算机使用’的测试版,以便在系统还比较原始的时候获得反馈。但随着这些系统变得越来越好,它们可能会被更广泛地使用,并真正与你合作完成不同的活动。
“我认为 DoorDash、The Browser Company 和 Canva 都在尝试不同的浏览器交互方式,并借助 AI 进行设计。
“我的预期是,我们还将看到代码助手进一步改进。这对开发者来说一直是一个非常令人兴奋的事情。人们对使用 Claude 3.5 进行编码非常感兴趣,它不再像几年前那样只是自动补全。它真正理解代码中的错误,进行调试——运行代码,查看结果,并进行修复。”
4. 智能体需要变得安全
“我们创办 Anthropic 是因为我们预计 AI 会快速发展,并且认为安全问题不可避免地会变得重要。我认为,今年这种情况会变得越来越明显,因为我认为这些智能体将越来越多地融入我们的工作中。我们需要为挑战做好准备,例如提示注入。
[提示注入是一种攻击,攻击者会以开发者没有预料到或意图的方式向大型语言模型传递恶意提示。一种方法是将提示添加到模型可能访问的网站中。]
“提示注入可能是我们在考虑智能体更广泛使用时最关注的问题之一。我认为这对‘计算机使用’尤其重要,也是我们正在积极研究的问题,因为如果‘计算机使用’在更大范围内部署,那么可能会有恶意网站或其他东西试图说服 Claude 做一些它不应该做的事情。
“随着模型变得更加先进,风险也更大。我们有一项严格的扩展策略,当 AI 系统变得足够强大时,我们认为我们需要能够真正防止它们被滥用。例如,如果它们可以帮助恐怖分子——诸如此类的事情。
“因此,我对 AI 的实用性感到非常兴奋——它实际上也加速了我们在 Anthropic 内部的工作,人们以各种方式使用 Claude,尤其是在编码方面。但,是的,也会有很多挑战。这将是令人兴奋的一年。”