Cohere 推出 Command R7B:轻量级、高速的 AI 模型,助力企业应用
AI 初创公司 Cohere 宣布推出 Command R7B,这是其 R 系列模型中最轻量级、速度最快的模型。Command R7B 专为快速原型设计和迭代而设计,并利用检索增强生成 (RAG) 技术来提高其准确性。该模型的上下文长度为 128K,支持 23 种语言,在数学和编码等任务中超越了同类开源模型,例如 Google 的 Gemma、Meta 的 Llama 和 Mistral 的 Ministral。
Cohere 联合创始人兼首席执行官 Aidan Gomez 在一篇博客文章中写道:“该模型专为需要优化其用例的速度、性价比和计算资源的开发人员和企业而设计。”
Cohere 一直专注于企业及其独特的用例。该公司在 3 月份推出了 Command-R,并在 4 月份推出了强大的 Command R+,并在全年不断升级以提高速度和效率。Command R7B 被称为 R 系列的“最终”模型,该公司表示将向 AI 研究界发布模型权重。
在开发 Command R7B 时,Cohere 的重点是提高其在数学、推理、代码和翻译方面的性能。该公司似乎在这些领域取得了成功,新的轻量级模型在 HuggingFace 开放 LLM 排行榜上超越了同等规模的开源模型,包括 Gemma 2 9B、Ministral 8B 和 Llama 3.1 8B。
此外,R 系列中最小的模型在 AI 代理、工具使用和 RAG 等领域也超越了竞争对手,RAG 通过将模型输出与外部数据相结合来提高准确性。Cohere 表示,Command R7B 在对话任务中表现出色,包括技术工作场所和企业风险管理 (ERM) 协助;技术事实;媒体工作场所和客户服务支持;人力资源常见问题解答;以及摘要。Cohere 还指出,该模型在金融环境中检索和处理数字信息方面“非常出色”。
总而言之,Command R7B 在重要的基准测试中平均排名第一,包括指令遵循评估 (IFeval);大规模基准测试困难 (BBH);研究生水平的 Google 防御问答 (GPQA);多步骤软推理 (MuSR);以及大规模多任务语言理解 (MMLU)。
Command R7B 可以使用搜索引擎、API 和向量数据库等工具来扩展其功能。Cohere 报告称,该模型的工具使用在伯克利函数调用排行榜上表现出色,该排行榜评估模型在函数调用(连接到外部数据和系统)方面的准确性。
Gomez 指出,这证明了其在“现实世界、多样化和动态环境”中的有效性,并消除了对不必要的调用函数的需求。这使其成为构建“快速且功能强大”的 AI 代理的理想选择。例如,Cohere 指出,当作为互联网增强型搜索代理运行时,Command R7B 可以将复杂问题分解为子目标,同时在高级推理和信息检索方面也表现出色。
由于体积小巧,Command R7B 可以部署在低端和消费级 CPU、GPU 和 MacBook 上,从而实现设备上推理。该模型现已在 Cohere 平台和 HuggingFace 上提供。定价为每 100 万个输入令牌 0.0375 美元,每 100 万个输出令牌 0.15 美元。
Gomez 写道:“对于寻求基于其内部文档和数据的经济高效模型的企业来说,这是一个理想的选择。”