这篇文章来自我们的 AI 周报《算法》。想要第一时间收到它,请在这里订阅。
AI 正在从“创造”走向“行动”
生成式 AI 模型在与我们对话、为我们创作图像、视频和音乐方面已经变得非常出色,但它们在为我们“做事”方面却并不擅长。
AI 代理承诺改变这一现状。可以将它们视为拥有脚本和目标的 AI 模型。它们通常有两种形式。
第一种被称为基于工具的代理,可以使用自然的人类语言(而不是代码)来指导它们完成我们的数字任务。Anthropic 在 10 月份发布了第一个来自主要 AI 模型制造商的此类代理,它可以将指令(“帮我填写这份表格”)转换为计算机上的操作,移动光标打开网页浏览器,导航到相关页面查找数据,并使用这些数据填写表格。Salesforce 也发布了自己的代理,据报道 OpenAI 计划在 1 月份发布一个。
另一种类型的代理被称为模拟代理,可以将它们视为旨在像人类一样行为的 AI 模型。最早致力于创建这些代理的人是社会科学研究人员。他们希望进行一些对真实人类受试者来说成本高昂、不切实际或不道德的研究,因此他们使用 AI 来模拟受试者。这种趋势在斯坦福大学博士生朴俊成及其同事发表的一篇名为“生成式代理:人类行为的交互式模拟”的 2023 年论文发表后尤其明显,该论文被广泛引用。
上周,朴俊成及其团队在 arXiv 上发表了一篇名为“1000 人的生成式代理模拟”的新论文。在这项工作中,研究人员让 1000 人参与了与 AI 的两小时访谈。不久之后,该团队能够创建模拟代理,以惊人的准确性复制每个参与者的价值观和偏好。
这里有两个非常重要的发展。首先,很明显,领先的 AI 公司认为仅仅构建令人惊叹的生成式 AI 工具已经不够了;他们现在必须构建能够为人们完成任务的代理。其次,让这些 AI 代理模仿真实人的行为、态度和个性变得越来越容易。曾经是两种截然不同的代理类型——模拟代理和基于工具的代理——很快可能会变成一件事:能够不仅模仿你的个性,还能代表你行动的 AI 模型。
这方面的研究正在进行中。像 Tavus 这样的公司正在努力帮助用户创建自己的“数字孪生”。但该公司首席执行官哈桑·拉扎设想更进一步,创建能够以治疗师、医生和教师身份出现的 AI 代理。
如果这些工具变得廉价且易于构建,它将引发许多新的伦理问题,但有两个问题尤其突出。第一个是这些代理可能会创造出更个人化、甚至更具危害性的深度伪造。图像生成工具已经让使用一个人的单张图像创建非自愿色情内容变得轻而易举,但如果复制某人的声音、偏好和个性变得容易,这场危机只会加剧。(朴俊成告诉我,他和他的团队在他们最新的研究项目中花了超过一年的时间来解决诸如此类的伦理问题,与斯坦福大学的伦理委员会进行了多次对话,并起草了有关参与者如何撤回其数据和贡献的政策。)
第二个是关于我们是否应该知道我们是在与代理还是与人类交谈的基本问题。如果你完成了一次与 AI 的访谈,并提交了你的声音样本以创建一个听起来像你、反应也像你的代理,你的朋友或同事是否有权知道他们是在与它交谈而不是与你交谈?另一方面,如果你打电话给你的手机服务提供商或医生的办公室,一个开朗的客户服务代理接听了电话,你是否有权知道你是在与 AI 交谈?
这个未来似乎遥不可及,但它并非遥不可及。当我们到达那里时,可能会有更多紧迫和相关的伦理问题需要提出。在此期间,请阅读我关于 AI 代理的文章,并思考你认为 AI 面试官能在两个小时内了解你多少。
现在阅读《算法》的其余部分
深度学习
深入了解 Clear 的雄心壮志:超越机场管理你的身份
Clear 是最引人注目的生物识别公司,你可能已经与它互动过,无论是在机场和体育场通过安检,还是在 LinkedIn 上验证你的身份。在此过程中,它建立了全球最大的私人身份数据存储库之一,包括指纹、虹膜和面部扫描。一系列因素正在加速身份验证技术的采用——当然也包括 AI,以及大流行推动“无接触”体验的持久影响——Clear 旨在成为这些服务的无处不在的提供者。在不久的将来,无数需要身份证或信用卡的情况可能只需要出示你的脸。
为什么这很重要:现在生物识别技术已经成为主流,谁来承担成本?因为这种便利,即使只有我们中的一部分人选择它,也会让我们所有人都在努力应对其影响。如果 Clear 在其愿景中取得进展,它将把我们带入一个世界,在这个世界里,我们越来越有义务将我们的生物识别数据交给一个容易发生数据泄露的系统。阅读 Eileen Guo 的更多内容。
比特与字节
深入了解蓬勃发展的“AI 妓女”行业
Instagram 上充斥着数百个 AI 生成的网红,他们从真实模特和成人内容创作者那里窃取视频,为他们生成 AI 脸庞,并通过链接到约会网站、Patreon、OnlyFans 竞争对手和各种 AI 应用程序来将他们的身体货币化。(404 媒体)
如何保护你的艺术免受 AI 的侵害
如果你的作品已经被抓取到数据集里,你几乎无能为力,但你可以采取措施防止未来的作品被这样使用。以下是如何做到这一点的四种方法。(麻省理工学院科技评论)
埃隆·马斯克和维韦克·拉马斯瓦米已经详细说明了他们削减监管的计划
在一篇专栏文章中,两人强调他们的目标将是立即使用行政命令来消除联邦机构发布的规定,使用“一支精干的小政府斗士团队”。这意味着拜登政府在联邦机构发布的 AI 指南,例如国家标准与技术研究院的伦理规则或国家安全备忘录中关于 AI 的原则,可能会被撤回或完全消除。(华尔街日报)
OpenAI 如何测试其模型
OpenAI 向我们展示了它如何选择人员进行测试,以及它如何通过让大型语言模型相互攻击来实现测试过程的自动化。(麻省理工学院科技评论)