
三星AI研究人员正通过一项颠覆性的技术突破,重塑人工智能领域,挑战了业界长期以来“模型规模越大越好”的核心信条。他们推出的微型递归模型(TRM),仅包含700万个参数,却在复杂的推理任务中表现出色,超越了规模是其数千倍的巨型语言模型。这充分证明了智能的架构设计远胜于简单粗暴的计算力堆砌。
这项由三星SAIL蒙特利尔的Alexia Jolicoeur-Martineau主导的研究,在一篇题为《少即是多:微型网络递归推理》(”Less is More: Recursive Reasoning with Tiny Networks”)的论文中详细阐述,它为AI问题解决引入了一种根本不同的方法。当科技巨头们投入数十亿美元打造拥有数千亿参数的巨型模型时,三星的TRM却以不到0.01%的计算资源,在那些出了名的难题基准测试中取得了卓越的成绩。
AI最严峻挑战中的革命性表现
TRM在各项标准AI基准测试中的表现令整个研究界为之震惊。在旨在衡量AI真正流体智能的ARC-AGI-1测试中,这个微型模型取得了44.6%的准确率,成功超越了包括DeepSeek-R1、谷歌的Gemini 2.5 Pro以及OpenAI的o3-mini在内的众多大型竞争对手。而在更具挑战性的ARC-AGI-2基准测试中,TRM更是以7.8%的得分,力压Gemini 2.5 Pro的4.9%表现。
该模型的强大能力不仅限于抽象推理,还延伸到具体的实际问题解决。在“数独-极限”难题上,TRM在仅训练了1000个示例后,便达到了87.4%的准确率,展现出卓越的泛化能力。对于需要在30×30网格中寻路的迷宫导航任务,该模型也取得了85.3%的准确率。
微型网络如何实现“大智慧”?
TRM成功的秘诀在于其独特的递归推理方法,这种方法比传统AI模型更接近人类解决问题的方式。与大型语言模型一次性生成答案不同,TRM进入一个迭代循环,持续地完善其解决方案。模型首先给出一个初步答案,然后利用内部的“草稿板”(scratchpad)对其推理进行多达16次的批判和改进。
这种方法解决了当前AI系统的一个关键弱点:早期错误容易在整个解决方案过程中层层累积。Jolicoeur-Martineau在社交媒体上指出:“认为必须依赖由大型企业斥资数百万美元训练的庞大基础模型才能解决复杂任务的观念是具有误导性的。”这项研究表明,递归思维而非单纯的模型规模,可能是解决抽象推理挑战的关键,尤其是在领先的生成模型也难以应对的领域。
TRM的架构相比其前身——层级推理模型(Hierarchical Reasoning Model)——进行了显著简化。后者使用了两个网络和复杂的数学论证。三星的这一新方法消除了这些复杂性,仅采用一个双层网络,就能递归地改进其内部推理过程和提出的答案。
