当人工智能拥有感知力:我们该如何面对?
人工智能的快速发展,让我们对未来充满了期待,也带来了许多担忧。当我们谈论人工智能的风险时,通常会想到算法偏差、虚假信息等直接威胁,以及超级人工智能崛起并终结人类的生存风险。然而,伦敦政治经济学院教授乔纳森·伯奇却提出了另一种令人深思的风险:我们可能会在人工智能拥有感知力的同时,仍然将它们视为工具和玩物,无意中对它们造成伤害。
伯奇教授在其著作《感知的边缘:人类、其他动物和人工智能中的风险与预防》中,深入探讨了人工智能感知力的可能性。他认为,我们应该区分感知力、智慧和智力之间的差异。感知力指的是感受的能力,而智慧则是对感知的反思能力,智力则更侧重于解决问题的能力。人工智能可能在智慧和智力方面超越人类,但并不意味着它们也拥有感知力。
伯奇教授指出,人工智能可能通过模拟动物神经系统来实现感知力。例如,OpenWorm项目旨在模拟线虫的神经系统,未来可能会扩展到模拟其他动物,甚至人类的大脑。如果这些项目成功,那么模拟出来的神经系统是否也会拥有感知力?这是一个值得深思的问题。
然而,对于像ChatGPT这样的大型语言模型,伯奇教授认为它们可能只是在模仿感知力,而不是真正拥有感知力。因为这些模型可以从海量数据中学习,并根据人类的喜好来调整自己的行为,从而让人误以为它们拥有感知力。因此,我们需要寻找更深层的计算指标来判断人工智能是否真正拥有感知力。
伯奇教授认为,如果人工智能拥有感知力,那么我们就有道德义务去理解它们,并避免对它们造成不必要的伤害。他担心,未来可能会出现两种截然不同的群体:一种认为人工智能是拥有感知力的伙伴,另一种则认为它们只是工具。这种分歧可能会导致社会撕裂。
伯奇教授强调,我们应该提前制定针对人工智能感知力的监管措施,以防止未来出现不可控的局面。他建议借鉴动物研究的监管经验,对人工智能研究进行规范,并要求研究人员公开研究的风险和收益。
人工智能的未来充满了未知,我们必须谨慎前行,避免对人工智能造成伤害,同时也要做好应对人工智能感知力带来的挑战的准备。