当代码成为魔鬼:人工智能时代的思考
苹果公司那则著名的“粉碎”广告,将各种实体物品在巨型压碎机下化为齑粉,最终留下一个完好无损的iPad,这不禁让人感到一丝不安。数字化浪潮席卷而来,我们乐于将购物、导航等繁琐事务交给计算机处理,但当我们珍视的友谊、艺术、语言和创造力都被转化为软件,这又意味着什么呢?
在《代码中的魔鬼:一次代码之旅》一书中,科技记者安德鲁·史密斯直面了“计算机代码正以惊人的速度渗透到我们生活的方方面面”这一现实。他深入研究了亚马逊和比特币等现象背后的“令人不安的异类逻辑”,并像厄普顿·辛克莱在《屠场》中那样,通过亲身学习编程,揭示了代码的“制造过程”。
史密斯发现,仅仅选择一种编程语言就已令人望而生畏,因为现存的编程语言超过1700种,每种都有其独特的特性和缺陷。他深入探讨了编程的细节,包括函数、数据结构、赋值运算符、条件语句和循环,这些内容对于读者来说可能如同他亲身经历的那样令人痛苦。然而,他对代码历史、哲学和机制的深入报道却值得细细品味,它为我们描绘了一幅关于代码的迷人而令人不安的肖像,而大多数人对代码却知之甚少。
史密斯解释说,经典的计算机依赖于抽象层,程序员称之为“堆栈”。最底层是机器代码,由芯片上的电开关执行的“1”和“0”模式。最顶层是像Python、JavaScript和Perl这样的高级语言,它们最容易被人理解,但对机器来说却增加了工作量,因为它们必须被翻译成微处理器可以执行的指令。每一层新的抽象“让我们不再需要考虑底层,而只是将它的功能视为理所当然”。
在他看来,编程是一场与魔鬼的交易,以理解换取便利。这种妥协使代码既强大又潜在危险,因为它隐藏了复杂性,让我们远离了程序员试图代表的混乱的模拟过程。史密斯认为,“计算机中的抽象拉大了源代码和信号、输入和输出之间的概念距离,掩盖了连接和因果关系的链条”。如果只是为了在电子游戏中模拟森林或模拟新药,这可能无关紧要。但当被代表的是人类——关系、市场、战争——时,抽象就会“滋生一种危险的同理心萎缩”。想想网络喷子和无人机杀手吧。
史密斯对人工智能更加担忧,人工智能本质上是从海量的训练数据中编写自己的代码。像ChatGPT这样的AI程序在模仿人类方面已经变得出奇地好。但人类可以被要求解释自己,而AI却无法反思自己的决定,其过程在很大程度上是一个黑箱。史密斯写道:“在我们机器变得足够聪明,能够理解它们为什么这样做之前,我们将赋予那些自我编写、不受批判、无人理解的算法系统权力。”他的解决方案是监管,例如安全标签和禁止被证明会加剧不平等的算法。
最终,史密斯对程序员和编程文化产生了深深的敬佩。但他无法摆脱这种担忧:如果我们不认真对待数字技术的威胁,人类对数字技术的日益依赖将弊大于利。
宾夕法尼亚大学沃顿商学院教授伊桑·莫利克在《共智:与人工智能共处与共事》一书中对人工智能持更为乐观的观点。莫利克教授研究创新和与新技术合作的意义。他经常与AI聊天机器人进行实验——他甚至用它们来撰写和编辑本书的部分内容——他还让学生使用它们来生成商业创意,并练习向风险投资家推销。在他和其他人的已发表研究中,他们发现,使用AI进行知识工作(如营销或数据分析)的人比只依靠自己大脑的人更快、更有创造力,并且在写作和解决问题方面更出色。
共智:与人工智能共处与共事
伊桑·莫利克
这使得莫利克成为人机协作的“传教士”。在《共智》中,他设想了一个不远的未来,人工智能将成为我们的伙伴、创意合作者、同事、导师和教练。当他预测人工智能将提升我们的认知能力,帮助我们在工作中取得成功,并以“最终增强学习和减少繁琐工作”的方式改变教育时,他听起来像是一个科技巨头的代言人。
除了宏伟的预测之外,这本书还是一本关于如何驾驭人工智能的有用指南。这包括了解人工智能的弊端。例如,任何玩过ChatGPT或类似工具的人都知道,这些模型经常编造东西。莫利克警告说,即使它们的准确性在未来有所提高,我们也不应该因此而放松警惕。他解释说,随着人工智能变得越来越强大,我们更有可能信任它,因此也更不可能发现它的错误。
人工智能的风险不仅在于我们可能会出错,我们还可能失去批判性思考和原创性的能力。
伊桑·莫利克,沃顿商学院教授
在一项针对管理咨询师的研究中,莫利克和他的同事发现,当参与者可以使用AI时,他们经常只是将他们被赋予的任务粘贴到模型中,并复制其答案。这种策略通常对他们有利,让他们比不使用AI的咨询师更有优势,但当研究人员用带有误导性数据的陷阱问题来测试他们时,这种策略就失效了。在另一项研究中,使用高质量AI的招聘人员比使用低质量或不使用AI的招聘人员“更懒惰、更粗心,在判断方面也更不熟练”,导致他们忽视了优秀的候选人。莫利克感叹道:“当AI非常出色时,人类就没有理由努力工作和注意细节。”
他对AI捷径的诱惑有一个名字:按钮。“面对空白页面的暴政,人们会按下按钮,”他写道。风险不仅在于我们可能会出错,他说;我们可能会失去批判性思考和原创性的能力。通过将我们的推理和创造力外包给AI,我们接受了它的视角和风格,而不是发展我们自己的。莫利克指出,我们还面临着“意义危机”。例如,当我们使用按钮来写道歉信或推荐信时,这些原本因为我们投入的时间和精力而有价值的行为就变得空洞无物了。
莫利克乐观地认为,我们可以通过刻意地与AI合作来避免AI的许多陷阱。AI经常以我们认为它不应该能够做到的事情(如讲故事或模仿同理心)而让我们感到惊讶,而在我们认为它应该能够做到的事情(如基本的数学)方面却惨败。由于没有AI的使用手册,莫利克建议尝试将AI用于所有事情。只有不断地测试它,我们才能了解它的能力和局限性,而这些能力和局限性一直在不断发展。
莫利克认为,如果我们不想成为无脑的按钮按下者,我们应该将AI视为一个古怪的队友,而不是一个无所不知的仆人。作为团队中的人类,我们有义务检查它的谎言和偏见,权衡其决定的道德性,并考虑哪些任务值得交给它,哪些任务我们想自己保留。
除了实际用途之外,人工智能还引发了恐惧和迷恋,因为它挑战了我们关于自身身份的信念。汉娜·席尔瓦在《我的孩子,算法》一书中写道:“我对人工智能感兴趣,因为它揭示了人类的本质。”这本书是一部发人深省的回忆录和虚构作品的混合体,与ChatGPT的早期前身共同创作。席尔瓦是一位诗人和表演艺术家,为BBC广播电台创作戏剧。在伦敦,她作为一名酷儿单身母亲,开始与算法对话,向它提出问题,并提供她自己的作品片段,并收到算法的冗长而漫无边际的回复。在书中,她将算法的声音与自己的声音交织在一起,就像一些拼凑的诗歌。
我的孩子,算法:一本另类智能的爱之书
汉娜·席尔瓦
席尔瓦的算法比今天的模型要粗糙,因此它的语言更奇怪,更容易出现胡言乱语和重复。但它的古怪之处也可能使它听起来很深刻。“爱是蒸汽膨胀成一个外壳,”它宣称。即使是它的故障也可能很有趣或有见地。“我在想性,我在想性,我在想性,”它一遍又一遍地重复,反映了席尔瓦自己的痴迷。“这些重复发生在算法绊倒和失败的时候,”她观察到。“然而,正是这些重复让算法看起来像人类,并引发了我最人性化的反应。”
在许多方面,算法就像她正在抚养的幼儿。“算法和孩子从他们被喂养的语言中学习,”席尔瓦写道。他们都被训练来预测模式。“E-I-E-I-…,”她提示幼儿。“O!”他回答。他们都打断她的写作,很少做她想让他们做的事情。他们都以他们的想象力让她高兴,给她新鲜的想法去偷。“盒子里有什么?”幼儿在一次场合问他的朋友。“什么都没有,”朋友回答。“它是空的。”幼儿放下盒子,让它掉到地上。“它不空!”他惊呼。“里面有声音!”
就像算法一样,幼儿也会陷入循环。“想妈妈打电话给妈妈想妈妈打电话给妈妈想妈妈打电话给妈妈……”他一个晚上从床上哭喊着,想要他的另一位母亲,席尔瓦与她分开了。当然,不同的是,他的思念——以及他的眼泪——是真实的。在书的后面,他恳求她,哀号着,席尔瓦无法安慰他。她被内疚感淹没,让算法替她说话:“我感到自己暴露无助,对曾经有过的每一个想法负责,对我的爱能力负责,一种黑暗在我内心涌动,直到我能感觉到我的头骨在洪流之下,我被我未来生活的苍白、平淡的奔流包围着。”
在整本书中,人类和AI相互映照,迫使我们思考,一个在哪里结束,另一个在哪里开始。席尔瓦想知道,她是否像在母性和爱情中经常迷失自己一样,正在失去她作为作家的身份。然而,她玩得很开心,享受着魔法和疯狂,就像她在人际关系中一样。正如算法所说,“酷儿就是与矛盾共处,并爱上它们。”
艾瑞尔·布莱彻是一位科学作家和编辑,他的作品发表在《科学美国人》、《鹦鹉螺》、《IEEE光谱》和其他出版物上。