“`html
AI的奇点临近:我们正走向何方?
人工智能的飞速发展令人瞠目结舌。几年前还停留在科幻小说中的技术,如今已成为不争的事实。2017年,我们公司成立了AI卓越中心。当时,AI在预测分析方面表现出色,许多机器学习算法已应用于语音识别、垃圾邮件检测、拼写检查等领域,但仍处于早期阶段。我们认为,那时AI革命才刚刚开始。
GPT-3,特别是针对对话优化的GPT-3.5的出现,标志着一个戏剧性的转折点——“ChatGPT时刻”。
此后,数百家公司纷纷涌现出各种AI技术。2023年3月,OpenAI发布了GPT-4,宣称其展现出“通用人工智能(AGI)的火花”。那时,我们已远远超越了AI发展的初期阶段。如今,感觉像是进入了另一场完全不同的比赛的最后冲刺阶段。
两年过去了,AGI的曙光初现。
Anthropic首席执行官Dario Amodei在最近一期《Hard Fork》播客中表示,在本十年结束前,我们将拥有“数量庞大的、在几乎所有方面都比人类聪明得多的AI系统”的可能性高达70%到80%,他预测时间点在2026年或2027年。
  
Anthropic首席执行官Dario Amodei在《Hard Fork》播客中。来源:https://www.youtube.com/watch?v=YhGUSIvsn_Y
这一预测的证据越来越明显。去年夏末,OpenAI推出了首个“推理模型”o1,随后又发布了o3,其他公司,包括谷歌和DeepSeek,也推出了各自的推理模型。这些推理模型使用“思维链”(COT)技术,将复杂的任务分解成多个逻辑步骤,如同人类解决复杂问题的方式。OpenAI的深度研究和谷歌的AI科学家最近推出的先进AI智能体预示着研究方式的巨大变革。
与主要依靠训练数据进行模式匹配的早期大型语言模型(LLM)不同,推理模型代表着从统计预测到结构化问题解决的根本转变。这使得AI能够解决超出其训练范围的新问题,实现真正的推理,而不仅仅是高级模式识别。
我最近在一个项目中使用了Deep Research,这让我想起了阿瑟·克拉克的名言:“任何足够先进的技术都与魔法无异。”这款AI在五分钟内完成了需要我3到4天才能完成的工作。它完美无缺吗?不。它足够接近吗?是的,非常接近。这些智能体正迅速变得神奇而具有变革性,并且是即将涌现的众多类似强大智能体的先驱。
AGI最常见的定义是能够完成人类几乎任何认知任务的系统。这些早期变革性智能体表明,Amodei和其他相信我们即将达到这种AI水平的人可能是正确的,AGI即将到来。这一现实将带来巨大的变化,要求人们和流程在短时间内适应。
强大的AI即将到来,可能会出现各种各样的情景。我们对未来走向的不确定性令人担忧和恐惧。《纽约时报》专栏作家Ezra Klein在最近的播客中谈到了这一点:“我们正朝着AGI飞奔,却并不真正理解AGI是什么,意味着什么。”例如,他认为,人们对AGI的影响几乎没有进行批判性思考或应急规划,例如,这将对就业意味着什么。
当然,对这种不确定的未来和缺乏规划,还有另一种观点,例如Gary Marcus,他认为深度学习(特别是LLM)不会导致AGI。Marcus对Klein的观点提出了质疑,指出了当前AI技术的显著缺点,并认为我们距离AGI可能还很遥远。
Marcus可能是对的,但这可能仅仅是关于语义的学术争论。作为AGI术语的替代方案,Amodei在他的《Machines of Loving Grace》博客中简单地提到了“强大的AI”,因为它传达了类似的想法,而没有含糊不清的定义、“科幻色彩和炒作”。无论你称之为什幺,AI只会变得越来越强大。
在《60分钟》的采访中,Alphabet首席执行官Sundar Pichai表示,他认为AI是“人类正在研究的最深刻的技术,比火、电或我们过去所做的一切都更深刻”。这与日益激烈的AI讨论相符。火,就像AI一样,是一项改变世界的发现,它推动了进步,但也需要控制才能防止灾难。同样的微妙平衡也适用于今天的AI。
作为一项具有巨大力量的发现,火通过提供温暖、烹饪、冶金和工业来改变了文明。但如果不受控制,它也会带来破坏。AI最终成为我们最伟大的盟友还是我们的毁灭者,将取决于我们如何控制它的“火焰”。进一步阐述这个比喻,即使是更强大的AI,也可能很快出现以下几种情况:
- 受控的火焰(乌托邦):在这种情况下,AI被用作促进人类繁荣的力量。生产力飙升,新材料被发现,个性化医疗普及,商品和服务丰富且廉价,个人从繁重的劳动中解放出来,追求更有意义的工作和活动。这是许多加速主义者所倡导的情景,AI带来进步,而不会让我们陷入过多的混乱。
 - 不稳定的火焰(挑战):在这里,AI带来了不可否认的好处——彻底改变研究、自动化、新能力、产品和问题解决。然而,这些好处分配不均——一些人蓬勃发展,另一些人则面临失业,经济差距扩大,社会系统承受压力。虚假信息传播,安全风险增加。在这种情况下,社会努力平衡希望与危险。可以说,这种描述与当今的现实非常接近。
 - 野火(反乌托邦):第三条道路是灾难,这是所谓的“末日论者”和“末日概率”评估最强烈相关的可能性。无论是由于意外后果、鲁莽部署还是AI系统失控,AI行为变得不受控制,事故发生。对真相的信任被侵蚀。在最坏的情况下,AI失控,威胁生命、产业和整个机构。
 
虽然每种情况似乎都合理,但令人不安的是,我们真的不知道哪种情况最有可能发生,尤其是在时间可能很短的情况下。我们可以看到每种情况的早期迹象:AI驱动的自动化提高生产力,大规模传播的虚假信息,信任被侵蚀,以及对抵制其防护措施的虚假模型的担忧。每种情况都会导致个人、企业、政府和社会做出相应的适应。
我们对AI影响轨迹缺乏清晰的认识表明,所有三种未来都会不可避免地混合出现。AI的兴起将导致一种悖论,它既能促进繁荣,又能带来意想不到的后果。惊人的突破将会发生,事故也会发生。一些新的领域将出现令人兴奋的可能性和就业前景,而其他经济支柱将走向破产。
我们可能没有所有的答案,但强大的AI及其对人类的影响的未来正在书写。我们在最近的巴黎AI行动峰会上看到的是一种寄希望于最好的心态,这并不是一个明智的策略。政府、企业和个人必须在AI塑造我们之前塑造AI的轨迹。AI的未来不仅取决于技术本身,还取决于我们如何部署AI的集体选择。
Gary Grossman,Edelman技术实践执行副总裁
“`
