这篇文章最初出现在我们的 AI 周报《算法》中。要接收此类文章,请在此处订阅。
DeepSeek 的横空出世,在科技圈之外掀起了不小的波澜,甚至让投资者惊慌失措,导致股市蒸发了 1 万亿美元。如今,距离 DeepSeek 的高光时刻已经过去了几周,尘埃落定,新闻报道也转向了其他更平静的话题,比如美国联邦项目的解体、为了遵守最新行政命令而清除研究数据、以及特朗普总统对加拿大、墨西哥和中国的新关税可能带来的影响。
然而,在 AI 领域,DeepSeek 的长期影响究竟如何呢?DeepSeek 已经播下了三颗种子,即使最初的炒作消退,它们也会继续生长。
首先,DeepSeek 引发了关于 AI 模型在追求更优答案的过程中应该消耗多少能量的争论。
你可能听说过(包括我),DeepSeek 非常节能。这在训练阶段是正确的,但在推理阶段,即你向模型提问并获得答案时,情况就复杂了。它使用了一种链式思维技术,将复杂的问题(比如是否可以为了保护别人的感受而撒谎)分解成一个个小块,然后对每个小块进行逻辑推理。这种方法使 DeepSeek 等模型在数学、逻辑、编码等方面表现得更好。
问题是,这种“思考”方式比我们习惯的 AI 消耗了更多的电力。尽管 AI 目前只占全球总排放量的一小部分,但越来越多的政治力量支持大幅增加 AI 的能源投入。当然,链式思维模型的能源密集度是否值得,取决于我们使用 AI 的目的。用于治愈世界上最严重疾病的科学研究似乎是值得的。而用于生成 AI 垃圾呢?就不那么值得了。
一些专家担心,DeepSeek 的强大功能会导致公司将其整合到大量的应用程序和设备中,用户会将其用于不必要的场景。(例如,让 DeepSeek 解释爱因斯坦的相对论理论就是浪费,因为它不需要逻辑推理步骤,任何普通的 AI 聊天模型都可以用更少的时间和能量做到这一点。)
其次,DeepSeek 在训练方面取得了一些创造性的进展,其他公司可能会效仿。
先进的 AI 模型不仅仅是在大量文本、图像和视频上进行学习。它们严重依赖人类来清理数据、标注数据,并帮助 AI 选择更好的答案,而这些工作往往报酬微薄。
人类参与的一种方式是通过一种叫做“人类反馈强化学习”的技术。模型生成一个答案,人类评估者对答案进行评分,这些评分用于改进模型。OpenAI 开创了这种技术,尽管现在它被广泛应用于行业。
正如我的同事 Will Douglas Heaven 所报道的那样,DeepSeek 做了一些不同的事情:它找到了一种自动化评分和强化学习过程的方法。“跳过或减少人类反馈——这是一件大事,”Itamar Friedman 说,他曾是阿里巴巴的研究总监,现在是总部位于以色列的 AI 编码初创公司 Qodo 的联合创始人兼首席执行官。“你几乎可以完全不用人类进行劳动来训练模型。”
这种方法在数学和编码等学科中特别有效,但在其他学科中效果不佳,因此仍然需要人类参与。尽管如此,DeepSeek 还是更进一步,使用了类似于 Google DeepMind 在 2016 年训练其 AI 模型在围棋游戏中取得优异成绩的技术,本质上是让它规划可能的走法并评估其结果。这些进步,尤其是 DeepSeek 在其开源文档中广泛概述的这些进步,肯定会受到其他公司的效仿。
第三,DeepSeek 的成功将引发一场关键的辩论:你能推动 AI 研究向所有人开放,同时推动美国与中国的竞争吗?
早在 DeepSeek 免费发布其模型之前,一些 AI 公司就认为,该行业需要公开透明。他们认为,如果研究人员遵循某些开源原则并展示他们的工作,那么全球开发超级智能 AI 的竞赛就可以像一项造福公众的科学努力一样进行,任何一个参与者的力量都会受到其他参与者的制衡。
这是一个不错的想法。Meta 大体上支持这一愿景,风险投资家 Marc Andreessen 也表示,开源方法在保证 AI 安全方面可能比政府监管更有效。OpenAI 一直站在这一论点的对立面,它将自己的模型封闭起来,理由是这可以帮助防止它们落入坏人之手。
DeepSeek 使这些叙述变得更加混乱。“我们在历史的错误一边,需要制定不同的开源策略,”OpenAI 的 Sam Altman 在周五的 Reddit AMA 中说,这令人惊讶,因为 OpenAI 过去一直持相反立场。包括特朗普总统在内的其他人则加倍强调美国需要在 AI 方面更具竞争力,他们将 DeepSeek 的成功视为警钟。Anthropic 的创始人 Dario Amodei 说,这提醒我们,美国需要严格控制未来几年哪些类型的先进芯片流入中国,一些立法者也表达了同样的观点。
未来几个月,以及 DeepSeek 和其他公司即将发布的成果,将对所有这些论点进行压力测试。
现在阅读《算法》的其余部分
深度学习
OpenAI 推出研究工具
周日,OpenAI 推出了一个名为 Deep Research 的工具。你可以向它提出一个复杂的问题,它会花费最多 30 分钟的时间阅读资料、整理信息并为你撰写一份报告。它是一个全新的工具,我们还没有测试过其输出的质量。由于它的计算需要很长时间(因此也需要大量的能量),目前它只对拥有 OpenAI 付费 Pro 级别(每月 200 美元)的用户开放,并且限制了他们每月可以进行的查询次数。
重要意义:AI 公司一直在竞相构建有用的“代理”,可以代表你完成任务。1 月 23 日,OpenAI 推出了一个名为 Operator 的代理,它可以为你使用你的电脑完成一些任务,比如预订餐厅或查看航班信息。新的研究工具表明,OpenAI 不仅仅是想让这些平凡的在线任务变得更容易;它想将 AI 定位为能够处理专业研究任务的工具。它声称 Deep Research“可以在几十分钟内完成人类需要几个小时才能完成的事情。”时间会证明,用户是否会发现它值得高昂的成本以及包含错误信息的风险。
比特与字节
似曾相识:埃隆·马斯克将他的推特收购策略带到了华盛顿
联邦机构已经为数百万员工提供了离职机会,并测试了工程师的能力——就像埃隆·马斯克收购推特时一样。相似之处令人惊叹。(纽约时报)
版权局推动了 AI 在艺术和电影中的应用
美国版权局认为,在大多数情况下,借助 AI 制作的艺术作品应该根据现有法律获得版权保护,但完全由 AI 生成的作品可能不应获得版权保护。这将意味着什么?(华盛顿邮报)
OpenAI 免费发布了新的 o3-mini 推理模型
OpenAI 刚刚发布了一个推理模型,它比其前身更快、更便宜、更准确。(麻省理工科技评论)
Anthropic 提出了一种保护大型语言模型免受越狱攻击的新方法
这种防御措施可能是迄今为止最强大的。但没有盾牌是完美的。(麻省理工科技评论)。