人工智能领域的领军人物加里·马库斯(Gary Marcus)一直对当今人工智能的发展持批判态度。在 2023 年 5 月的美国参议院听证会上,他坐在 OpenAI 首席执行官山姆·奥特曼(Sam Altman)身边,呼吁对 OpenAI 和其他致力于生成式人工智能的科技公司进行严格监管。他与“人工智能教父”杰弗里·辛顿(Geoffrey Hinton)和扬·勒昆(Yann LeCun)在推特上的辩论也引起了广泛关注。马库斯的名字与他对人工智能的担忧紧密相连。
马库斯的新书《驯服硅谷:如何确保人工智能为我们服务》(Taming Silicon Valley: How We Can Ensure That AI Works for Us)近日由麻省理工学院出版社出版,书中深入阐述了他的担忧。他认为,生成式人工智能带来的直接威胁包括大量虚假信息的泛滥、深度伪造色情内容的易于制作以及用于训练新模型的创意知识产权的盗窃(他不认为人工智能会导致世界末日,他没有那么悲观)。他还批评了硅谷如何操纵公众舆论和政府政策,并提出了监管人工智能公司的想法。
加里·马库斯Ben Wong
马库斯在传奇人物史蒂文·平克(Steven Pinker)的指导下学习认知科学,在纽约大学任教多年,并共同创办了两家人工智能公司:几何智能公司(Geometric Intelligence)和稳健人工智能公司(Robust.AI)。他与《IEEE Spectrum》杂志谈论了他对人工智能的看法。
您最初是如何接触人工智能的?
**加里·马库斯:**我从 8 岁开始学习编程。我能够跳过高中的最后两年,原因之一就是我在我的 Commodore 64 上用 Logo 编程语言编写了一个拉丁语到英语的翻译器。所以,在我 16 岁的时候,我已经在上大学,并开始研究人工智能和认知科学。
您一直对人工智能很感兴趣,但您在本科和麻省理工学院攻读博士学位时都选择了认知科学。
马库斯:我选择认知科学的原因之一是,我认为如果我能理解人类思维,也许能为人工智能带来新的方法。我认为,如果我们想要构建真正先进的人工智能,我们需要对人类思维有一个全面的了解。作为一名科学家和哲学家,我认为我们还不知道如何构建通用人工智能,甚至不知道如何构建值得信赖的通用人工智能。但是,我们还没有用这些大型统计模型来做到这一点,而且我们给了它们很大的机会。在生成式人工智能上,基本上已经投入了 750 亿美元,在无人驾驶汽车上投入了 1000 亿美元。但两者都没有真正产生我们可以信任的稳定人工智能。我们不确定需要做什么,但我们有充分的理由认为,仅仅扩大规模并不奏效。目前的方法一遍又一遍地遇到了同样的问题。
您认为它不断遇到的主要问题是什么?
马库斯:首要问题是幻觉。这些系统将很多词语混杂在一起,有时它们会得出真实的结果,有时则不会。比如,说我养了一只名叫亨丽埃塔的宠物鸡,这根本不真实。而它们经常这样做。例如,我们已经看到这种情况在律师写案情摘要时,其中包含了编造的案件。
其次,它们推理能力很差。我最近最喜欢的例子是这些过河谜题,谜题中有一个男人、一颗卷心菜、一只狼和一只山羊需要过河。该系统记忆了许多示例,但它并不真正理解发生了什么。如果你给它一个更简单的问题,比如道格拉斯·霍夫施塔特(Douglas Hofstadter)发给我的一个问题:“一个男人和一个女人有一条船,他们想过河,他们该怎么办?”它会得出一个疯狂的解决方案,男人先过河,把船留在那里,游回来,然后发生了一些其他事情。
有时他会顺便带一颗卷心菜过去,就为了好玩。
马库斯:所以这些都是推理上的愚蠢错误,很明显不对劲。每次我们指出这些错误,有人就会说:“是的,但是我们会得到更多数据,我们会解决这个问题。”好吧,我已经听到这句话近 30 年了。虽然确实有一些进步,但核心问题并没有改变。
让我们回到 2014 年,当时您创办了第一家 AI 公司,几何智能公司。我想那时您对 AI 更乐观?
马库斯:是的,我更加乐观。我不仅在技术方面更加乐观,在人们利用 AI 做好事方面也更加乐观。人工智能以前感觉像一个小的研究社区,这些人都渴望帮助世界。
那么,这种幻灭和怀疑是什么时候出现的?
马库斯:在 2018 年,我已经认为深度学习被过度炒作了。那年我写了一篇文章叫做“深度学习,一份批判性评估”,扬·勒昆当时非常讨厌这篇文章。我已经对这种方法不满意了,我认为它不太可能成功。但这并不意味着我感到失望,对吧?
然后,当大型语言模型变得流行时(大约在 2019 年),我立即认为它们是个坏主意。我只是认为,从哲学和技术角度来看,这并不是追求人工智能的正确方式。很明显,媒体和一些机器学习领域的人被炒作所吸引。这让我感到不安。所以,我在 2020 年写了一些关于 GPT-3(OpenAI 的大型语言模型的早期版本)是“胡说八道艺术家”的文章。作为一名科学家,我对这个领域非常失望。然后,当 ChatGPT 在 2022 年问世时,情况变得更糟,世界上大多数人都失去了所有的理智。我开始越来越担心错误信息,以及大型语言模型如何加剧错误信息的传播。
您不仅担心初创公司,还担心那些加入生成式 AI 热潮的大型科技公司,比如与 OpenAI 合作的微软?
马库斯:让我从研究 AI 转向研究政策的最后一根稻草是,很明显,无论如何,微软都会领先。这与 2016 年他们发布 [一个名为 Tay 的早期聊天机器人] 非常不同。它很糟糕,他们在 12 个小时后就将其下架,然后布拉德·史密斯(Brad Smith)写了一本关于负责任的 AI 以及他们所学到的东西的书。但是到了 2023 年 2 月底,很明显微软真正改变了他们对这件事的看法。然后他们发表了荒谬的“人工智能的火花”论文,我认为这是炒作的顶峰。在凯文·鲁斯 (Kevin Roose) 与 [聊天机器人] Sydney 的疯狂对话后,他们并没有将 Sydney 下架,在这次对话中,[聊天机器人] Sydney 告诉他离婚,以及所有这些事情。对我来说,很明显,硅谷的氛围和价值观已经发生了很大的变化,而且变化不佳。
我对美国政府也感到失望。我认为拜登政府在签署行政命令方面做得很好。但是很明显,参议院不会采取必要的行动。我在 2023 年 5 月在参议院发表了演讲。当时,我觉得两党都认识到,我们不能把这一切都交给自我监管。然后,在过去一年中,我对 [国会] 感到失望,这就是我写这本书的原因。
您谈论了很多当今生成式 AI 技术固有的风险。但您也说,“它运行得不太好”。这两种观点是否一致?
马库斯:有一个标题是:“加里·马库斯曾经称人工智能很愚蠢,现在他称它很危险”。言外之意是这两件事不能共存。但事实上,它们确实可以共存。我仍然认为生成式 AI 很愚蠢,当然不能信任或依赖它。但它很危险。而且,其中一些危险实际上源于它的愚蠢。所以,例如,它没有扎根于现实世界,所以恶意行为者很容易操纵它说出各种垃圾话。现在,也许未来的 AI 会因为不同的原因而变得危险,因为它太聪明、太狡猾,以至于超越了人类。但目前情况并非如此。
您说过生成式 AI 是一个即将破灭的泡沫。您为什么这样认为?
马库斯:澄清一下:我不认为生成式 AI 会消失。对于某些目的,它是一种很好的方法。你想构建自动完成功能,它是迄今为止发明的最佳方法。但存在金融泡沫,因为人们将 AI 公司估值得好像它们将解决通用人工智能一样。在我看来,这并不现实。我认为我们离 AGI 还很远。所以接下来要问的问题是,“好吧,你能用生成式 AI 做些什么?”
去年,由于山姆·奥特曼是一个很优秀的推销员,每个人都幻想我们即将拥有 AGI,并且你可以将这个工具应用于每个公司的各个方面。于是,一大堆公司花费了大量资金在各种不同的事情上测试生成式 AI。所以,他们花了 2023 年来做这件事。然后,你可以在 2024 年看到一些报告,这些报告中,研究人员去采访了微软 Copilot 的用户——不是编程工具,而是更通用的人工智能工具——他们说:“是的,它运行得不太好”。去年有很多这样的评论。
实际上,现在生成式 AI 公司正在亏钱。OpenAI 去年运营亏损约 50 亿美元。也许你可以以 20 亿美元的价格将生成式 AI 卖给那些正在试验它的人。但除非他们永久采用它,并且支付给你更多的钱,否则它将无法运作。在 OpenAI 的估值达到 860 亿美元后,我开始称它为 AI 领域的“WeWork”。对我来说,这些数字根本说不通。
要让我相信我错了,需要什么?会是什么样的令人震惊的事件?
马库斯:嗯,我做出了很多不同的声明,所有这些都可能错了。在技术方面,如果有人能做到让纯粹的大型语言模型永远不产生幻觉,并始终可靠地推理,那么我关于这些东西是如何运作的核心主张就错了。所以,这将是驳斥我的一个方法。这件事还没有发生,但这至少在逻辑上是可能的。
在财务方面,我很容易出错。但关于泡沫的是,它们主要受心理学影响。我认为市场理性吗?不。所以,即使这些东西在接下来的五年内没有赚钱,人们也可能会继续向其中投入资金。
我想让我改变想法的地方是美国参议院。他们可以齐心协力,对吧?我一直四处宣称,“他们行动不够快”,但我希望在这方面被证明是错的。在书中,我列出了生成式 AI 的 12 大风险。如果参议院通过了一项真正解决所有 12 大风险的法案,那么我的愤世嫉俗就会消失。我会觉得自己浪费了一年时间写这本书,我会非常非常高兴。