AWS与OpenAI联合发布由OpenAI前沿模型驱动的Amazon Bedrock托管智能体,旨在简化企业AI智能体部署。此前OpenAI与微软的独家云协议已转为非独家,此举标志着OpenAI多云分发模式的开端。
亚马逊云服务(AWS)与 OpenAI 于周二联合亮相"AWS 展望未来"活动,共同发布了一系列面向企业的全新 AI 产品,其中最受瞩目的是由 OpenAI 前沿模型驱动的 Amazon Bedrock 托管智能体。此次发布距 OpenAI 与微软正式终止独家云合作协议仅过去一天,这也标志着 OpenAI 的专有模型将首次向 AWS 客户开放。
AWS CEO 马特·加曼将此次发布定位为解决"AI 智能体的最后一公里"问题——将模型打包成即开即用的生产级应用,让企业无需自行管理底层基础设施即可完成部署。这款全新托管智能体产品目前已进入预览阶段,由运行于 Amazon Bedrock 之上的 OpenAI 前沿模型提供支持,内置记忆、技能、身份认证及算力等核心能力。

此次时机并非巧合。周一,OpenAI 与微软披露了一项修订后的合作协议,将微软对 OpenAI 模型的独家许可转变为非独家安排,同时微软 Azure 仍将作为 OpenAI 的"首要云合作伙伴"直至 2032 年。OpenAI 现可在任意云平台上向客户提供"其全部产品",而 Amazon Bedrock 已确认成为首个额外分发渠道。
AWS CEO 安迪·贾西在 X 上发文称,公司"非常期待在未来几周内通过 Bedrock 直接向客户提供 OpenAI 的模型,以及即将推出的有状态运行时环境"。两家公司于今年二月首次宣布了更广泛的战略合作关系,彼时亚马逊承诺向 OpenAI 投资 500 亿美元,双方开始联合开发面向 Bedrock 上智能体工作流的有状态运行时环境。
亚马逊基于 OpenAI 的 Bedrock 托管智能体为企业提供了一条部署智能体应用的三步路径:创建包含计算、存储和工具的环境;配置含指令、技能和记忆的运行时;然后提交任务并实时流式获取结果。该产品可通过 Bedrock AgentCore 及其他 AWS 服务进行扩展。
此外,AWS 近期在 AgentCore 中推出了一套托管智能体框架,据AWS 博客文章介绍,该框架将智能体部署简化为仅需三次 API 调用。该框架基于开源的 Strands Agents 框架构建,开发者只需通过配置指定模型、工具和指令,而无需编写自定义编排代码。目前该框架已在四个 AWS 区域开放预览。
此次扩大的合作伙伴关系使 OpenAI 与 Anthropic、Meta、Google、Mistral 等已在 Bedrock 上提供服务的厂商并驾齐驱,为企业客户提供一个集统一安全与治理控制于一体的单一平台。对 OpenAI 而言,此举标志着在多年独家依赖 Azure 之后,公司开始向多云分发模式转型——Constellation Research 分析师 Liz Miller 将此形容为亚马逊"分享了其在管理自身业务过程中积累的宝贵经验"。
免费获取企业 AI 成熟度诊断报告,发现转型机会
关注公众号

扫码关注,获取最新 AI 资讯
3 步完成企业诊断,获取专属转型建议
已有 200+ 企业完成诊断