订阅我们的每日和每周新闻简报,获取有关行业领先的 AI 报道的最新更新和独家内容。了解更多
随着 Nvidia 宣布推出多项新服务和模型来促进 AI 代理的创建和部署,行业对代理 AI 的推动仍在继续。
今天,Nvidia 推出了 Nemotron,这是一个基于 Meta 的 Llama 并使用该公司技术和数据集进行训练的模型系列。该公司还宣布了新的 AI 编排蓝图,以指导 AI 代理。这些最新发布将 Nvidia,一家以提供支持生成式 AI 革命的硬件而闻名的公司,推向了代理 AI 开发的前沿。
Nemotron 有三种尺寸:Nano、Super 和 Ultra。它也有两种版本:用于语言任务的 Llama Nemotron 和用于物理 AI 项目的 Cosmos Nemotron 视觉模型。Llama Nemotron Nano 有 40 亿个参数,Super 有 490 亿个参数,Ultra 有 2530 亿个参数。
据该公司称,所有这三种模型最适合代理任务,包括“指令遵循、聊天、函数调用、编码和数学”。
Nvidia Omniverse 和模拟技术副总裁 Rev Lebaredian 在与记者的简报中表示,这三种尺寸针对不同的 Nvidia 计算资源进行了优化。Nano 适用于 PC 和边缘设备上的经济高效的低延迟应用程序,Super 适用于单个 GPU 上的高精度和吞吐量,Ultra 适用于数据中心规模的最高精度。
“AI 代理是将为我们工作并与我们一起工作的数字劳动力,因此 Nemotron 模型系列适用于代理 AI,”Lebaredian 说。
Nemotron 模型可在 Hugging Face 和 Nvidia 网站上作为托管 API 获得。Nvidia 表示,企业可以通过其 AI Enterprise 软件平台访问这些模型。
Nvidia 对基础模型并不陌生。去年,它悄然发布了 Nemotron 的一个版本,Llama-3.1-Nemotron-70B-Instruct,其性能优于 OpenAI 和 Anthropic 的类似模型。它还推出了 NVLM 1.0,一个多模态语言模型系列。
随着企业开始探索如何在工作流程中部署代理系统,AI 代理在 2024 年成为一大趋势。许多人认为这种势头将在今年持续下去。
Salesforce、ServiceNow、AWS 和 Microsoft 等公司都将代理称为企业中下一波生成式 AI。AWS 已将多代理编排添加到 Bedrock,而 Salesforce 发布了其 Agentforce 2.0,为其客户带来了更多代理。
然而,代理工作流程仍然需要其他基础设施才能有效地工作。其中一项基础设施围绕着编排,即管理跨越不同系统的多个代理。
Nvidia 也凭借其指导代理完成特定任务的蓝图,进入了新兴的 AI 编排领域。
该公司已与多家编排公司合作,包括 LangChain、LlamaIndex、CrewAI、Daily 和 Weights and Biases,在 Nvidia AI Enterprise 上构建蓝图。每个编排框架都与 Nvidia 共同开发了自己的蓝图。例如,CrewAI 创建了一个代码文档蓝图,以确保代码库易于导航。LangChain 将 Nvidia NIM 微服务添加到其结构化报告生成蓝图中,以帮助代理以不同的格式返回互联网搜索结果。
“使多个代理顺利协同工作或编排是部署代理 AI 的关键,”Lebaredian 说。“这些领先的 AI 编排公司正在将每个 Nvidia 代理构建块,NIM、Nemo 和蓝图与他们的开源代理编排平台集成。”
Nvidia 的新 PDF 到播客蓝图旨在通过将 PDF 中的信息转换为音频来与 Google 的 NotebookLM 竞争。另一个新的蓝图将帮助构建代理来搜索和总结视频。
Lebaredian 表示,蓝图旨在帮助开发人员快速部署 AI 代理。为此,Nvidia 推出了 Nvidia Launchables,这是一个允许开发人员一键测试、原型设计和运行蓝图的平台。
随着企业努力应对多代理生产,编排可能是 2025 年更大的故事之一。