腾讯开源了一款仅440MB的翻译模型Hy-MT1.5-1.8B-1.25bit,可在智能手机上完全离线运行。该模型利用三值量化框架Sherry,将18亿参数的翻译引擎压缩至原始大小的八分之一,支持33种语言和1056个翻译方向,翻译质量媲美谷歌翻译。
腾讯于周二开源了一款超高压缩率的翻译模型,该模型体积小到足以完全在智能手机上离线运行。此次发布时机恰好赶在中国五一假期出行旺季之前。
该模型名为 Hy-MT1.5-1.8B-1.25bit,将一个支持33种语言、参数量达18亿的翻译引擎压缩至仅440MB——约为原始3.3GB大小的八分之一。下载完成后,无需网络连接、无需订阅、无需云端处理,所有翻译均在设备本地完成。

该压缩方案依托 Sherry 实现——这是一个三值量化框架,已被 ACL 2026 会议录用。Sherry 采用"3:4 细粒度稀疏"模式:每四个模型参数中,三个以 1 位精度存储,一个置为零,平均每个参数仅占 1.25 位。配合专为移动端 CPU 指令集优化的自定义推理内核,即便在内存受限的设备上,该模型也能在后台流畅运行。
腾讯还发布了一个 574MB 的 2 位版本,相较于全精度模型,翻译质量几乎无损。



底层模型家族 Hy-MT1.5 是腾讯 WMT25 冠军翻译系统的升级版,原生支持 33 种语言、五种汉语方言及少数民族语言,以及 1,056 个翻译方向。腾讯声称,这款拥有 18 亿参数的模型所达到的翻译质量,可与拥有 2350 亿参数的商业 API 和模型相媲美,并在标准基准测试中超越了谷歌翻译。
在发布模型权重的同时,腾讯还推出了一款演示应用,其中包含"后台取词模式",让用户在阅读邮件或浏览网页时即可获取翻译。据腾讯介绍,该应用完全在设备本地处理数据,不收集任何个人信息。目前,这款演示应用已通过 ModelScope 面向安卓用户开放,iOS 版本暂不可用。



此次发布丰富了腾讯混元翻译产品线——该产品线还包括面向云端部署的更大规模 HY-MT1.5-7B 模型。完整模型权重与演示应用均已开源,开发者和普通用户均可免费使用这款仅 440MB 的离线翻译工具。



免费获取企业 AI 成熟度诊断报告,发现转型机会
关注公众号

扫码关注,获取最新 AI 资讯
3 步完成企业诊断,获取专属转型建议
已有 200+ 企业完成诊断