前途科技
  • 科技
  • AI
    • AI 前沿技术
    • Agent生态
    • AI应用场景
    • AI 行业应用
  • 初创
  • 报告
  • 学习中心
    • 编程与工具
    • 数据科学与工程
我的兴趣
前途科技前途科技
Font ResizerAa
站内搜索
Have an existing account? Sign In
Follow US
Copyright © 2024 AccessPath.com, 前途国际科技咨询(北京)有限公司,版权所有。 | 京ICP备17045010号-1 | 京公网安备 11010502033860号
AI 前沿技术

Zero-RAG:告别冗余知识,提升大模型效率与效果的创新技术解析

NEXTECH
Last updated: 2025年11月6日 上午7:56
By NEXTECH
Share
14 Min Read
SHARE

Zero-RAG:对冗余知识说“不”

一、LLM 知识渐满,RAG 负担渐重

图 1:知识冗余示意图

Contents
Zero-RAG:对冗余知识说“不”一、LLM 知识渐满,RAG 负担渐重二、Zero-RAG 成效显著:30% 维基百科可删,22% 延迟立降,效果不减三、Zero-RAG 技术方案详解四、Zero-RAG 如何剪除冗余知识?案例分析

知识冗余示意图

  • (a) Llama3.3-70B 在四个 Wikipedia 风格 QA 数据集上,裸模型 Exact-Match 召回率达到或超过 40%——这表明近一半问题大模型本身就能够回答。
  • (b) 将相应的维基百科段落再次送入上下文后,准确率反而下降了 20 个百分点——冗余知识在此成了“噪声”。

结论:外部知识库(corpus)与大模型内部知识存在高度重叠,继续进行“全量检索”无异于浪费成本、增加延迟并降低效果。

二、Zero-RAG 成效显著:30% 维基百科可删,22% 延迟立降,效果不减

复旦大学邱锡鹏团队提出了Zero-RAG技术,该技术通过“掌握度评分”指标,精准识别并剪除RAG知识库中的冗余知识。经过剪枝后,对于大模型已“掌握”的问题,其回答将主要依赖模型自身的内部知识。

表 1:Zero-RAG主实验汇总(Llama3-70B 与 Llama3.3-70B 性能对比)

Zero-RAG主实验汇总:Llama3-70B与Llama3.3-70B性能对比

You Might Also Like

开源神器 OpenDataLoader PDF:RAG 数据预处理终结者,告别“垃圾进,垃圾出”!
OpenAI GPT-5.1 全面升级:情商智商双核提升,个性化交互与模型特点详解
文档分段深度解析:从基础规则到LLM智能分块,构建高效RAG系统的核心技术
掌握Google Nano Banana:高效图像生成提示词框架及实战指南
  • 在 TriviaQA、EntityQuestions、PopQA、HotpotQA 等数据集上,剪除 30% 的知识库(corpus),Exact-Match (EM) 指标下降不到 2%;即使剪除 70%,也仅下降约 3 个百分点。
  • 检索延迟平均降低 22%(参考表 4)。
  • 经过 Noise-Tolerant Tuning 后,部分数据集的性能甚至超越了使用全库的传统 RAG 方案。

简而言之:Zero-RAG 实现了“零冗余”的目标,不仅能有效剪枝、显著加速,还能保持甚至提升模型效果。

三、Zero-RAG 技术方案详解

图 4:Zero-RAG 四阶段流水线

Zero-RAG四阶段技术流水线

3.1 Mastery-Score —— 为每条句子打“掌握度”分数

图 3:Mastery-Score 计算流程

Mastery-Score计算流程图

  1. 使用大型语言模型(LLM)对给定句子 s 生成 n 组问答对(QA)。
  2. 让同一 LLM 回答这 n 个问题,计算 Exact-Match (EM) 均值,从而得到 Mastery-Score M(s)。
  3. 训练一个小型回归模型来预测 M(s),并依据预设的百分位阈值 τ 直接删除 Mastery-Score 较高的句子(算法详见附录 A.1)。

结果显示:原始包含 1.38 亿句维基百科知识的索引,在剪枝 30% 后,其体积同比例缩小。

3.2 Query Router —— 查询前先判断模型是否“已知”

表 3:Zero-RAG消融实验结果

Zero-RAG消融实验结果

  • 首先让经过 Noise-Tolerant 微调的模型回答训练集中的问题,将能正确回答的问题标记为“已掌握”(mastered)。
  • 训练一个二分类器来判断问题是否“已掌握”。在推理时,对于“已掌握”的问题,直接跳过外部检索步骤,从而减少延迟并避免引入噪声。

消融实验结果表明:移除 Query Router 后,Exact-Match (EM) 性能显著下降,这证明了额外的检索有时反而会引入干扰。

3.3 Noise-Tolerant Tuning —— 即使检索到无用文档也能保持稳定

训练数据采用以下三种配方:

  1. 仅提供问题 → 答案(不使用 RAG)
  2. 提供问题 + 相关文档 → 答案
  3. 提供问题 + 随机噪声文档 → 答案

通过统一的损失函数训练模型,使其学会忽略无用信息片段,并主要依赖其内部知识进行回答。

经过此项微调,即使在剪枝后的知识库中偶尔检索到不相关的句子,模型也能够“视而不见”,保持回答的准确性。

四、Zero-RAG 如何剪除冗余知识?案例分析

表 6:Zero-RAG案例研究

Zero-RAG案例研究:冗余知识剪除示例

句子:“Queen Victoria became Empress of India in 1876.”

Llama3-70B 模型能够直接回答生成的所有 4 个问答对 ⇒ Mastery-Score=1 ⇒ 该句子被直接剪除。

这类“教科书级别”的常识性知识,正是 Zero-RAG 旨在实现“零冗余”的剪除目标。

Zero-RAG: Towards Retrieval-Augmented Generation with ZeroRedundant Knowledgehttps://arxiv.org/pdf/2511.00505

TAGGED:AI前沿技术RAG优化Zero-RAG大模型效率知识剪枝
Share This Article
Email Copy Link Print
Previous Article Image 2 智能体关键技术深度解析:从产品实践到核心概念
Next Article 图1:Iris数据集中花瓣长度与萼片长度的条件分布与众数回归曲线 非参数模型为何值得重新审视?揭秘其在数据科学中的强大潜力
Leave a Comment

发表回复 取消回复

您的邮箱地址不会被公开。 必填项已用 * 标注

最新内容
20251202135921634.jpg
英伟达20亿美元投资新思科技,AI芯片设计革命加速
科技
20251202130505639.jpg
乌克兰国家AI模型选定谷歌Gemma,打造主权人工智能
科技
20251202121525971.jpg
中国开源AI新突破:DeepSeek V3.2模型性能比肩GPT-5
科技
20251202112744609.jpg
马斯克预言:AI三年内解决美国债务危机,可信吗?
科技

相关内容

杰克·克拉克早期演讲照片
AI 前沿技术

Anthropic联合创始人杰克·克拉克:AI的真实恐惧与未来思考

2025年10月17日
GPT-5模型的情感缺失与修复示意图
AI 前沿技术

GPT-5 Instant:修复AI情商漏洞,平衡智能与情感发展

2025年10月6日
AI 前沿技术

Docling:RAG数据秒级转换解决方案,彻底解决数据准备难题及实战部署指南

2025年10月13日
AI 前沿技术

Opera One AI升级:智能助手新纪元与功能详解

2025年11月1日
Show More
前途科技

前途科技是一个致力于提供全球最新科技资讯的专业网站。我们以实时更新的方式,为用户呈现来自世界各地的科技新闻和深度分析,涵盖从技术创新到企业发展等多方面内容。专注于为用户提供高质量的科技创业新闻和行业动态。

分类

  • AI
  • 初创
  • 学习中心

快速链接

  • 阅读历史
  • 我的关注
  • 我的收藏

Copyright © 2025 AccessPath.com, 前途国际科技咨询(北京)有限公司,版权所有。 | 京ICP备17045010号-1 | 京公网安备 11010502033860号

前途科技
Username or Email Address
Password

Lost your password?

Not a member? Sign Up