过去几年,关于人工智能的讨论常常围绕一个看似简单的问题展开:哪个模型是最好的?
但随之而来的问题总是:好在哪方面?
是推理能力最强?写作最流畅?编程最擅长?还是说在图像、音频或视频处理上表现最优?
在技术尚不成熟、发展不均衡的阶段,这种比较框架有其合理性。当模型之间的差距显而易见时,讨论基准测试似乎富有成效,甚至很有必要。选择正确的模型确实能显著影响最终成果。
然而,当人工智能被真正用于日常工作——无论是写作、规划、研究、分析、信息整合,还是将零散的想法转化为可用内容时,上述问题就显得有些偏离核心了。因为一个事实是:模型本身早已不再是瓶颈。
如今拖慢人们脚步的,并非智能本身(无论是人工的还是其他的),而是围绕它日益复杂的管理开销,例如多个订阅、碎片化的工作流程以及频繁的上下文切换。浏览器里塞满了标签页,每个工具都只擅长某一狭窄领域,却对其他部分一无所知。结果就是,用户不得不在不同工具间跳转,反复解释背景、重新设计提示词、重复上传文件、再次陈述目标。
在这个过程中,人工智能能带来显著时间和成本效率的初衷,开始显得空洞。此时,实践者们思考的问题也随之改变。他们不再问“我该用哪个模型?”,而是产生了一个更平凡却更发人深省的想法:为什么使用AI常常感觉比它本应简化的工作本身更困难、更笨拙?
模型在进步,工作流却停滞不前
对于日常的知识工作而言,当前的主流模型已经足够出色。虽然它们在各项任务上的表现不尽相同,也并非在所有边缘情况下都能互换,但其性能已接近一个临界点:单纯追求输出质量上微小的百分比提升,很少能带来实质性的生产力增长。
如果写作质量提升了5%,但花在选择工具或清理断裂上下文上的时间却翻了一倍,那这不过是伪装成精密的摩擦损耗。真正的收益如今来自不那么炫目但更实在的领域:减少摩擦、保持上下文连贯、控制成本、降低决策疲劳。这些改进或许不够耀眼,但日积月累,效果显著。
具有讽刺意味的是,当前AI用户的使用方式恰恰损害了所有这四个方面。
我们以更快、更喧闹的方式,重现了早期的SaaS工具泛滥问题。一个工具用于写作,另一个用于图像,第三个用于研究,第四个用于自动化……不一而足。每个工具单独看都精致强大,但没有一个是为彼此协同工作而优雅设计的。
单独来看,这些工具都很强大。但集合起来,它们令人疲惫,甚至可能适得其反。
它们非但没有减轻认知负荷或简化工作,反而将其碎片化。它们增加了新的决策点:这个任务该在哪进行?我该先尝试哪个模型?如何在不丢失上下文的情况下将输出从一个地方转移到另一个地方?
正因如此,整合(而非更好的提示词或稍聪明一点的模型)正在成为下一个真正的竞争优势。
认知开销的隐性成本
当今AI工作流中最少被讨论的成本之一,不是金钱,也不是性能,而是注意力。每一个额外的工具、模型选择、定价层级和界面都会引入一个小小的决策。单独看,每个决策都微不足道。但一天下来,它们会累积起来。最初表现为灵活性的东西,慢慢变成了摩擦。
当你还没开始工作,就必须先决定使用哪个工具时,你已经消耗了心智能量。当你必须记住哪个系统能访问哪些文件、哪个模型对哪种任务表现最佳、哪个订阅包含哪些限制时,管理开销本身就开始与工作内容竞争。讽刺的是,AI本应减轻这种负荷,而不是加剧它。
这一点的重要性远超大多数人的认知。最好的想法通常不会在你忙于切换界面、查看使用仪表盘时涌现;它们是在你能持续沉浸于一个问题足够久、看清其全貌时才出现的。碎片化的AI工具打破了这种连续性,迫使你不断重新定位。你反复在问:我刚才进行到哪了?我原本想做什么?我已经提供了哪些背景信息?我还在预算内吗?这些问题侵蚀了工作势头,使得整合开始看起来像一种战略。
一个统一的环境能让上下文得以延续,让决策退居幕后。当一个系统能处理路由、记住先前的工作、减少不必要的选择时,你就能重新获得一种日益稀缺的东西:不间断的思考时间。这才是真正的生产力解锁关键,它与从模型质量中再榨取几个百分点毫无关系。这也解释了为什么资深用户往往比新手更感挫败。你越是将AI深度整合到工作流中,碎片化带来的痛苦就越明显。在规模上,微小的低效会增长并成为代价高昂的阻力。
整合不只是为了便利
像ChatLLM这样的平台建立在一个关键假设之上:没有任何单一模型能在所有方面都是最好的。不同的模型将在不同任务上表现出色,新的模型会不断涌现。优势会转移,定价会变化。事实上,将整个工作流锁定在一个供应商身上,开始显得像是一个不可持续的选择。
这种框架从根本上改变了人们对AI的思考方式。模型变成了一个更广泛系统的组件,而不是你需要认同的哲学或效忠的机构。你不再是“GPT派”或“Claude派”。相反,你是在组装智能,就像组装任何现代技术栈一样:选择适合工作的工具,不合适时就替换它,并随着技术格局和项目需求的变化保持灵活。
这是一个关键的转变,一旦察觉,便难以忽视。
从聊天界面到工作系统
单纯的聊天模式本身难以规模化。
输入提示,得到回复?这种模式或许有用,但当AI成为日常工作的一部分,而非偶尔的试验时,它的局限性就暴露无遗。一旦你开始反复依赖它,其不足便清晰可见。
真正的杠杆效应发生在AI能够处理序列任务时:它能记住之前的内容,预测接下来的步骤,并减少人类仅仅为了搬运信息而不得不介入的次数。正是在这个意义上,智能体式工具开始展现出高价值:它可以监控信息、总结持续输入的内容、生成定期报告、跨工具连接数据,并消除耗时的、手工的“粘合”工作。
成本重回讨论焦点
随着AI工作流变得更加多模态,经济性再次变得重要。当轻量级任务与重型任务并存,或者当试验性使用转变为持续使用时,仅凭令牌定价已无法反映全貌。
有一段时间,新奇感掩盖了这一事实。但一旦AI成为基础设施,问题就转变了。不再是“X能做Y吗?”,而是变成了“这可持续吗?”基础设施有其约束,学会在这些约束下工作是让技术真正有用的部分。正如我们需要重新调整自己的认知预算一样,创新的定价策略也变得必要。
上下文才是真正的护城河
随着模型变得越来越容易替代,上下文却越来越难以复制。你的文档、对话、决策、机构记忆,以及所有散落在不同工具中的、杂乱但不断积累的知识,构成了无法伪造的上下文。
没有上下文,AI是聪明但肤浅的。它可以生成看似合理的回应,但无法有意义地建立在过去的工作之上。有了上下文,AI才能真正变得有用。这就是为什么集成比演示更重要。
重大转变
当前AI领域最重要的变化关乎组织方式。我们正从痴迷于“哪个模型最好”转向设计更平静、更经济、更具长期可持续性的工作流。ChatLLM是这一更广泛趋势的一个例子,但比产品本身更重要的是它所代表的方向:整合、路由、编排和上下文感知系统。
大多数人需要的不是一个更好或更聪明的模型。他们需要做更少的决策,更少地经历因上下文丢失或打开了错误界面而导致工作势头中断的时刻。他们需要AI去适应真实世界工作的形态,而不是要求我们在上游每次发生变化时都创建一套全新的工作流。
这就是为什么讨论正转向那些听起来更平凡、却带着对更高效率和更好结果的现实期望的问题:组织信息存放在哪里?如何防止成本激增?我们应该做些什么来预先保护自己,避免因供应商改变其产品而受影响?
