当AI大模型在算力竞赛中狂奔,我们是否走错了方向?神经科学像一面镜子,照出现有AI范式的根本局限。真正的智能或许无关数据和参数,而在于学习方式与物理世界的交互。未来,我们需要的不只是‘人造’智能,更是‘合成’智能。
大模型竞赛似乎已经简化为一场关于参数和算力的军备竞赛。从GPT-4到Claude 3,再到国内的文心一言和通义千问,模型规模的增长曲线几乎与性能划上了等号。然而,在这种看似无往不胜的狂飙突进之下,一个根本性的问题若隐若现:为什么这些模型在展现惊人能力的同时,也常常暴露出匪夷所思的“脆弱性”?
它们会在一本正经的回答中编造事实,无法真正理解物理世界的因果,更缺乏人类婴儿都能掌握的常识。这引出了一个更深层的问题:通过堆砌数据和算力,我们究竟是在逼近真正的智能,还是在打造一个越来越精致、但也越来越脆弱的“计算奇观”?
要回答这个问题,或许需要跳出计算机科学的范畴,向一个更古老的领域——神经科学——寻求答案。如果把大脑看作是自然界唯一被验证的通用智能系统,那么它就像一面镜子,清晰地照出了当前人工智能(Artificial Intelligence)范式的几大核心局限。
第一个局限是学习效率的鸿沟。
当前的大模型是名副其实的“数据吞噬兽”。训练一次顶级模型,需要耗费整个互联网级别的数据、价值数亿美元的算力和足以点亮一座小城的电力。相比之下,一个儿童仅通过有限的几次观察、互动和纠正,就能学会识别一只猫,并将其概念泛化到各种形态、颜色和情境中。人脑的学习机制,显然遵循着与“大数据+强算力”截然不同的底层逻辑。
第二个局限是能量效率的巨大差异。
人脑的平均功耗约为20瓦,相当于一个节能灯泡。而运行一个大型AI数据中心的能耗则以兆瓦计算,两者相差数万甚至数十万倍。这种能量效率上的天壤之别,暗示了两者在信息处理和算法层面存在着根本性的不同。大脑的计算是稀疏、异步和事件驱动的,而目前的AI计算则是密集、同步和暴力的。
神经科学揭示的最重要,也最常被AI领域忽视的一点,或许是“具身性”(Embodiment)。人类智能并非在一个虚拟的数字空间中凭空产生,而是通过身体与物理世界进行持续、多模态的交互而形成的。
“烫”这个概念,不是通过阅读十亿遍文本学会的,而是通过手指被热水或火焰灼烧一次后,由神经系统建立起的深刻连接。这种基于物理反馈的知识,构成了我们“常识”的基石。而目前的大模型,本质上是漂浮在数字世界的“虚拟大脑”,它们处理的是符号和概率,却从未真正“体验”过世界。
这就是为什么AI可以写出关于游泳的优美诗篇,但如果你把它放进一个虚拟水池,它并不知道如何摆动手脚。中国的机器人产业,如小米的CyberDog或优必选的Walker系列,在探索具身智能的道路上步履维艰,恰恰证明了这一点。将语言模型的能力“灌注”到物理实体中,远比想象的要困难,因为两者缺少一个统一的、基于物理世界经验的认知框架。
这个逻辑的问题在于,我们试图让一个从未拥有过身体的智能,去理解一个完全由物理规律主导的世界。这几乎是一个不可能完成的任务。
面对这些根本性的挑战,一些研究者开始思考一条新的路径。他们认为,我们需要的可能不是继续优化现有的“人造”智能(Artificial Intelligence),而是去创造一种全新的“合成”智能(Synthetic Intelligence)。
“人造”的核心思路是模拟智能的结果,通过工程学手段复现智能行为,而不必关心其内在机理是否与生物智能一致。这是过去七十年AI发展的主流。
而“合成”则更进一步,它试图理解并借鉴生物智能的底层原理——比如大脑的能量效率、学习机制和具身认知模式——然后用硅基技术将其“合成”出来。它的目标不是模仿,而是重构。
这条路无疑更加艰难,它需要神经科学、计算机科学、材料学和机器人学等领域的深度融合。但它可能才是通往通用人工智能(AGI)的正确方向。
对于中国的AI产业而言,这提供了一个超越“模型竞赛”的战略视角。与其在现有范式上追赶,不如在“合成智能”这个更前沿的领域进行布局。这意味着要更加重视脑科学与AI的交叉研究,鼓励对非冯·诺依曼架构的神经形态芯片(如清华大学的“天机芯”)的探索,并推动AI与实体机器人产业的深度结合。
最终,真正的智能可能不是在云端数据中心里用无限算力“暴力破解”出来的,而是在一个个与环境交互、不断试错、持续学习的“合成体”中,自下而上地涌现出来。
免费获取企业 AI 成熟度诊断报告,发现转型机会
关注公众号

扫码关注,获取最新 AI 资讯
3 步完成企业诊断,获取专属转型建议
已有 200+ 企业完成诊断