订阅我们的每日和每周通讯,获取有关行业领先人工智能报道的最新更新和独家内容。了解更多
在急于理解和与人工智能建立联系的过程中,我们掉入了一个诱人的陷阱:将人类特征归因于这些强大但本质上非人类的系统。这种对人工智能的拟人化不仅仅是人类天性的无害怪癖,它正在成为一种日益危险的趋势,可能会以关键的方式蒙蔽我们的判断。商业领袖将人工智能学习与人类教育进行比较,以证明培训实践的合理性,而立法者则根据有缺陷的人工智能类比制定政策。这种将人工智能人性化的趋势可能会不适当地影响各个行业和监管框架的关键决策。
从人类视角看待商业中的 AI,导致公司高估了 AI 的能力,或低估了对人工监督的需求,有时会造成代价高昂的后果。在版权法中,风险尤其高,拟人化思维导致了人类学习和 AI 训练之间存在问题比较。
听听我们如何谈论 AI:我们说它“学习”、“思考”、“理解”,甚至“创造”。这些人类术语听起来很自然,但它们具有误导性。当我们说 AI 模型“学习”时,它不像人类学生那样获得理解。相反,它对海量数据进行复杂的统计分析,根据数学原理调整其神经网络中的权重和参数。没有理解、顿悟、创造力的火花或真正的理解——只有越来越复杂的模式匹配。
这种语言上的障眼法不仅仅是语义上的。正如论文《生成式 AI 对合理使用的虚假论据》中所指出的:“使用拟人化语言来描述 AI 模型的开发和运作方式具有扭曲性,因为它暗示一旦经过训练,模型就会独立于其训练所依据的作品内容而运作。”这种混淆会带来实际后果,主要是在影响法律和政策决策时。
也许拟人化 AI 最危险的一面是它掩盖了人类和机器智能之间的根本差异。虽然一些 AI 系统在特定类型的推理和分析任务中表现出色,但如今主导 AI 话语的大型语言模型 (LLM)——我们在这里重点关注的——通过复杂的模式识别运作。
这些系统处理大量数据,识别和学习单词、短语、图像和其他输入之间的统计关系,以预测序列中接下来应该出现的内容。当我们说它们“学习”时,我们描述的是一个数学优化过程,帮助它们根据训练数据做出越来越准确的预测。
考虑来自 Berglund 及其同事研究的一个引人注目的例子:一个在“A 等于 B”的材料上训练的模型通常无法像人类那样推理,得出“B 等于 A”的结论。如果 AI 了解到瓦莲京娜·捷列什科娃是第一个进入太空的女性,它可能会正确地回答“瓦莲京娜·捷列什科娃是谁?”,但难以回答“谁是第一个进入太空的女性?”。这种局限性揭示了模式识别和真正推理之间的根本区别——预测可能的单词序列和理解其含义之间的区别。
这种拟人化偏差在关于 AI 和版权的持续辩论中具有特别令人不安的影响。微软首席执行官萨蒂亚·纳德拉最近将 AI 训练比作人类学习,暗示如果人类可以从书籍中学习而没有版权问题,那么 AI 也应该能够做到。这种比较完美地说明了在讨论道德和负责任的 AI 时,拟人化思维的危险性。
有些人认为需要修改这种类比,以理解人类学习和 AI 训练。当人类阅读书籍时,我们不会复制它们——我们理解和内化概念。另一方面,AI 系统必须实际复制作品——通常是在未经许可或付费的情况下获得的——将它们编码到其架构中,并维护这些编码版本以使其正常运作。正如 AI 公司经常声称的那样,作品在“学习”后不会消失;它们仍然嵌入在系统的神经网络中。
拟人化 AI 在商业决策中造成了危险的盲点,不仅仅是简单的运营效率低下。当高管和决策者以人类的“创造性”或“智能”来思考 AI 时,它会导致一系列冒险的假设和潜在的法律责任。
拟人化造成风险的一个关键领域是内容生成和版权合规。当企业将 AI 视为能够像人类一样“学习”时,他们可能会错误地认为 AI 生成的内容自动免受版权问题。这种误解会导致公司:
- 部署无意中复制受版权保护材料的 AI 系统,使企业面临侵权索赔
- 未能实施适当的内容过滤和监督机制
- 错误地认为 AI 可以可靠地区分公共领域和受版权保护的材料
- 低估了内容生成过程中人工审查的必要性
当我们考虑跨境合规时,AI 中的拟人化偏差会带来危险。正如丹尼尔·格瓦斯、哈拉兰博斯·马马尼斯、诺姆·谢姆托夫和凯瑟琳·扎勒·罗兰在《问题的核心:版权、AI 训练和 LLM》中解释的那样,版权法基于严格的地域原则,每个司法管辖区都维护着自己的关于构成侵权行为以及适用哪些例外情况的规则。
版权法的这种地域性造成了潜在责任的复杂网络。公司可能会错误地认为他们的 AI 系统可以自由地从各个司法管辖区的受版权保护的材料中“学习”,而没有意识到在一个国家合法的训练活动可能在另一个国家构成侵权行为。欧盟在其 AI 法案中认识到了这种风险,特别是在第 106 条理由中,该理由要求在欧盟提供的任何通用 AI 模型都必须遵守欧盟版权法关于训练数据的规定,无论该训练是在哪里进行的。
这很重要,因为拟人化 AI 的能力会导致公司低估或误解他们在跨境方面的法律义务。AI“像人类一样学习”的舒适虚构掩盖了 AI 训练涉及复杂复制和存储操作的现实,这些操作会在其他司法管辖区触发不同的法律义务。这种对 AI 实际运作的根本误解,加上版权法的地域性,给在全球运营的企业带来了重大风险。
最令人担忧的成本之一是拟人化 AI 带来的情感负担。我们看到越来越多的人与 AI 聊天机器人建立情感联系,将它们视为朋友或知己。这对可能分享个人信息或依赖 AI 提供情感支持的弱势群体来说尤其危险,而 AI 无法提供这种支持。AI 的回应,虽然看似富有同情心,但实际上是基于训练数据的复杂模式匹配——没有真正的理解或情感联系。
这种情感脆弱性也可能在专业环境中表现出来。随着 AI 工具越来越多地融入日常工作,员工可能会对这些系统产生不适当的信任,将它们视为真正的同事,而不是工具。他们可能会过分自由地分享机密工作信息,或者出于错误的忠诚感而犹豫不决地报告错误。虽然这些情况目前仍然是孤立的,但它们突出了在工作场所拟人化 AI 如何蒙蔽判断,并对系统产生不健康的依赖,尽管这些系统能够做出复杂的回应,但它们无法真正理解或关心。
那么我们该如何前进?首先,我们需要在谈论 AI 的语言上更加精确。与其说 AI“学习”或“理解”,不如说它“处理数据”或“根据训练数据中的模式生成输出”。这不仅仅是吹毛求疵——它有助于澄清这些系统的作用。
其次,我们必须根据 AI 系统的实际情况,而不是我们想象中的情况来评估它们。这意味着承认它们令人印象深刻的能力和它们的根本局限性。AI 可以处理大量数据并识别人类可能错过的模式,但它无法像人类那样理解、推理或创造。
最后,我们必须制定框架和政策,解决 AI 的实际特征,而不是想象中的人类特征。这在版权法中尤为重要,在版权法中,拟人化思维会导致错误的类比和不适当的法律结论。
随着 AI 系统在模仿人类输出方面变得越来越复杂,拟人化它们的诱惑会越来越强烈。这种拟人化偏差影响着从我们如何评估 AI 的能力到我们如何评估其风险的方方面面。正如我们所见,它延伸到围绕版权法和商业合规的重大实际挑战。当我们将人类学习能力归因于 AI 系统时,我们必须了解它们的本质以及它们处理和存储信息的实际技术。
了解 AI 的真实本质——复杂的信息处理系统,而不是像人类一样的学习者——对于 AI 治理和部署的各个方面都至关重要。通过超越拟人化思维,我们可以更好地应对 AI 系统的挑战,从道德考虑和安全风险到跨境版权合规和训练数据治理。这种更精确的理解将帮助企业做出更明智的决策,同时支持围绕 AI 的更好的政策制定和公众讨论。
我们越早接受 AI 的真实本质,我们就越有能力在全球经济中应对其深刻的社会影响和实际挑战。
Roanie Levy 是 CCC 的许可和法律顾问。
DataDecisionMakers
欢迎来到 VentureBeat 社区!
DataDecisionMakers 是专家(包括从事数据工作的人员)分享数据相关见解和创新的平台。
如果您想了解前沿理念、最新信息、最佳实践以及数据和数据技术的未来,请加入我们 DataDecisionMakers。
您甚至可以考虑贡献自己的文章!
阅读 DataDecisionMakers 的更多内容