订阅我们的每日和每周新闻通讯,获取有关行业领先的 AI 报道的最新更新和独家内容。了解更多
数据库平台开发商 Couchbase 正在寻求帮助解决企业 AI 部署中日益普遍的问题。即如何以尽可能快和安全的方式将数据靠近 AI。最终目标是简化企业 AI 的构建和部署,并提高其运营效率。
Couchbase 今天宣布了 Capella AI 服务套件,旨在帮助企业构建和部署 AI 应用程序,同时维护数据安全并简化开发工作流程。新产品包括用于在组织边界内安全托管 AI 模型的模型服务。向量化服务自动执行向量操作,以实现高效的 AI 处理。AI 函数通过 SQL++ 查询简化了 AI 集成,而新的代理目录则集中了 AI 开发资源和模板。
这一宣布是在企业努力将 AI 整合到其现有应用程序中,同时管理对数据隐私、运营复杂性和开发效率的担忧之际做出的。该公司表示,Capella AI 服务将使企业能够更高效地构建和部署 AI 应用程序,从而降低延迟,并最终改善业务成果。
此次扩展建立在 Couchbase 在 NoSQL 数据库技术和云到边缘功能方面的现有优势之上。Couchbase 是 NoSQL 数据库领域的早期先驱之一,该公司于 2021 年上市。在过去的一年里,该公司越来越专注于构建向量数据库功能。这些功能包括 2023 年推出的名为 Cappella IQ 的辅助生成式 AI 功能,以及今年扩展的向量搜索。
Couchbase 产品和合作伙伴高级副总裁 Matt McDonough 告诉 VentureBeat:“我们专注于为当今 AI 世界中的关键应用程序构建开发人员数据平台。传统应用程序的设计目的是让人类输入数据。AI 彻底颠覆了这一点,重点从 UI 或前端应用程序转移到数据库,并使其尽可能高效地供 AI 代理使用。”
正如数据库市场几十年来一直存在的那样,竞争非常激烈。
正如 NoSQL 数据库功能变得越来越普遍一样,向量数据库功能现在也变得越来越普遍。MongoDB、DataStax 和 Neo4j 等 NoSQL 供应商,以及 Oracle 等传统数据库供应商如今都拥有向量功能。
McDonough 承认:“如今,每个人都拥有向量功能,我认为这可能是一个准确的说法。”
尽管如此,他指出,即使在新的 Capella AI 服务推出之前,Couchbase 也旨在提供一种略有差别的产品。特别是,Couchbase 长期以来一直拥有移动和边缘部署功能。该数据库还提供内存中功能,有助于加速所有类型的查询,包括向量搜索。
Couchbase 的 SQL++ 查询语言也值得注意。SQL++ 允许开发人员使用熟悉的 SQL 语法查询和操作存储在 Couchbase 中的 JSON 数据。这有助于弥合关系型数据模型和 NoSQL 数据模型之间的差距。随着新的 Capella AI 服务的推出,SQL++ 功能正在扩展,使应用程序开发人员能够更轻松地使用标准数据库查询直接查询 AI 模型。
Couchbase AI 和边缘软件开发副总裁 Mohan Varthakavi 向 VentureBeat 解释说,AI 函数使开发人员能够轻松地在数据上执行常见的 AI 函数。例如,他指出,一个组织可能已经在 Couchbase 中拥有大量数据。使用新的 AI 函数,该组织只需使用 SQL++ 即可汇总数据,或直接在数据上执行任何其他 AI 函数。这可以在无需托管单独的 AI 模型、连接数据存储或学习不同的语法来执行 AI 函数的情况下完成。
Capella AI 如何将语义上下文引入企业部署以加速其发展
新的 Capella AI 服务套件引入了几个关键组件,这些组件解决了常见的企业 AI 挑战。
新组件之一是模型服务,它通过允许在组织边界内托管 AI 模型来解决企业安全问题。因此,模型可以托管在同一个虚拟专用云 (VPC) 中。
Varthakavi 说:“我们的客户一直告诉我们,他们担心数据会跨越网络传输到外部来源的基础模型。”
该服务支持开源模型和商业产品,并提供增值功能,包括请求批处理和语义缓存。Varthakavi 解释说,语义缓存不仅能够缓存对查询的字面响应,还能缓存这些响应背后的语义含义和上下文。他指出,通过缓存语义相关的响应,Couchbase 可以为使用数据的 AI 模型或应用程序提供更多上下文和有意义的信息。语义缓存可以帮助减少对 AI 模型的调用次数,因为 Couchbase 通常可以从自己的缓存中提供相关响应。这可以降低与对 AI 服务进行调用相关的运营成本和延迟。
McDonough 強調,Couchbase 在新的 AI 服务中总体上的核心重点是简化开发人员构建、测试和部署 AI 的过程,而无需使用大量不同的平台。
他说:“最终,我们相信这将通过在整个 AI 应用程序的软件开发生命周期中将这些模型和数据保持在一起,来降低延迟和运营成本。”