订阅我们的每日和每周新闻通讯,获取有关行业领先的 AI 报道的最新更新和独家内容。了解更多
随着 AI 渗透到现代生活的各个领域,商业领袖、政策制定者和创新者面临的核心挑战不再是是否采用智能系统,而是如何采用。在一个日益加剧的两极分化、资源枯竭、对机构信任度下降以及信息环境动荡的世界中,迫切需要的是设计 AI,使其能够对人类和地球的福祉做出有意义和可持续的贡献。
亲社会 AI——一个确保 AI 被精心设计、训练、测试和针对性地提升人类和地球的设计、部署和治理原则框架——不仅仅是一种道德立场或公关手段。它是一种战略方法,将 AI 定位在更广泛的智能生态系统中,该生态系统重视集体繁荣而不是狭隘的优化。
亲社会 AI 的理由来自四个相互交织的领域——能动性、联结、气候和分化 (ABCD)。每个领域都突出了 AI 的双重特性:它既可以加剧现有的功能障碍,也可以作为再生、包容性解决方案的催化剂。
- 能动性: AI 驱动的平台往往依赖于上瘾循环和不透明的推荐系统,这些系统会侵蚀用户的自主权。相比之下,亲社会 AI 可以通过揭示其建议的来源、提供有意义的用户控制并尊重人类决策的多方面性质来激活能动性。它不仅仅是关于“同意”或“透明度”作为抽象的流行语;它关乎设计 AI 交互,承认人类的复杂性——认知、情感、身体体验和社会背景的相互作用——并使个人能够在不屈服于操纵或分心的情况下浏览他们的数字环境。
- 联结: 数字技术既可以将社会分裂成回声室,也可以作为连接不同人群和思想的桥梁。亲社会 AI 应用细致入微的语言和文化模型来识别共同的兴趣,突出建设性的贡献,并在边界之间培养同理心。它不是为了吸引注意力而助长愤怒,而是帮助参与者发现互补的观点,加强社区纽带,并加强维系社会凝聚力的脆弱社会结构。
- 气候: AI 与环境的关系充满了紧张。AI 可以优化供应链,增强气候建模,并支持环境管理。然而,训练大型模型的计算强度往往需要相当大的碳足迹。亲社会视角要求设计能够平衡这些收益与生态成本——采用节能架构、透明的生命周期评估和生态敏感的数据实践。亲社会 AI 并非将地球视为事后诸葛亮,而是将气候因素作为首要任务:AI 不仅要为可持续发展提供建议,而且必须是可持续的。
- 分化: 定义我们这个时代的错误信息级联和意识形态裂痕并非技术的必然产物,而是将病毒式传播置于真实性之上的设计选择的结果。亲社会 AI 通过将文化和历史素养融入其流程,尊重上下文差异,并提供增强信任的事实核查机制来对抗这种现象。它不是为了同质化知识或强加自上而下的叙述,而是培养知情的多元化,使数字空间更易于导航、更可信、更具包容性。
实现这一愿景取决于培养我们可能称之为“双重素养”的东西。一方面是 AI 素养:掌握算法的技术细节,了解偏差是如何从数据中产生的,并建立严格的问责制和监督机制。另一方面是自然智能 (NI) 素养:对人类认知和情感(大脑和身体)、个人身份(自我)和文化嵌入(社会)的全面、具象的理解。
这种 NI 素养并非创新边缘的软技能;它是基础。人类智能是由神经生物学、生理学、内感受、文化叙述和社区伦理塑造的——一个超越“理性行为者”的还原性概念的错综复杂的挂毯。通过将 NI 素养与 AI 素养进行对话,开发人员、决策者和监管机构可以确保数字架构尊重我们多维的人类现实。这种整体方法培养了道德可靠、上下文敏感的系统,能够补充而不是限制人类的能力。
流行的想象力往往将机器与人类对立起来,进行一场零和博弈。亲社会 AI 挑战了这种二元论。考虑一下医疗保健中互补性的美妙之处:AI 擅长模式识别,可以筛选大量的医学图像,检测人类专家可能遗漏的异常。反过来,医生利用他们具象的认知和道德直觉来解释结果,传达复杂的信息,并考虑每个患者更广泛的生活背景。结果不仅仅是更有效的诊断;它是更人性化、以患者为中心的护理。类似的范式可以改变法律、金融、治理和教育决策。
通过将 AI 的精确性与人类专家的细致入微的判断相结合,我们可能会从等级式的命令和控制模型过渡到协作的智能生态系统。在这里,机器处理大规模的复杂性,而人类提供必要的道德愿景和文化流畅性,以确保这些系统服务于真实的公共利益。
为了将亲社会 AI 嵌入我们未来的核心,我们需要各行各业的共同努力:
行业和科技公司: 创新者可以优先考虑“人机协同”设计,并明确奖励与福祉相关的指标,而不是以任何代价追求参与度。他们可以构建能够告知、赋能和提升的系统,而不是设计 AI 来吸引用户——通过改善健康状况、教育水平、环境可持续性或社会凝聚力来衡量。
示例: AI 伙伴关系为亲社会创新提供了框架,帮助引导开发人员走向负责任的实践。
民间社会和非政府组织: 社区团体和倡导组织可以指导 AI 的开发和部署,在现实世界环境中测试新工具。他们可以将种族、语言和文化多元化的视角带到设计桌旁,确保由此产生的 AI 系统服务于广泛的人类体验和需求。
教育机构: 学校和大学应将双重素养融入其课程,同时加强批判性思维、伦理学和文化研究。通过培养 AI 和 NI 素养,教育机构可以帮助确保后代精通机器学习 (ML) 并深深扎根于人类价值观。
示例: 麻省理工学院施瓦茨曼计算学院和斯坦福大学以人为本的 AI 研究所体现了将技术严谨性与人文探究相结合的跨学科方法。
政府和政策制定者: 立法和监管框架可以激励亲社会创新,使公司生产透明、可问责且符合社会目标的 AI 系统在经济上可行。公民大会和公众咨询可以为这些政策提供信息,确保 AI 的方向反映社会的各种声音。
随着 AI 深度融入全球社会经济结构,我们必须抵制将技术视为针对特定指标优化的黑盒子的冲动。相反,我们可以设想一个人类和机器智能共同进化、以共同原则为指导、以对我们自己和我们环境的整体理解为基础的混合未来。亲社会 AI 超越了创新与责任之间的简单选择。它提供了一个更丰富的可能性挂毯,在这个挂毯中,AI 赋能而不是上瘾,连接而不是分裂,再生而不是枯竭。
AI 的未来将不仅仅由计算能力或算法狡猾决定。我们将如何将这些能力有机地融入人类领域将决定它,承认大脑和身体、自我和社会、地方细微差别和地球迫切需求的相互作用。通过这样做,我们创造了一个更广泛的成功标准:一个不仅以利润或效率衡量,而且以人类的繁荣和地球的复原力衡量的标准。
亲社会 AI 可以沿着这条道路前进。未来从现在开始,以新的 ABCD 为起点:Aspire to an inclusive society; Believe that you are part in making it happen; Choose which side of history you want to be on; and Do what you feel is right.
在联合国儿童基金会工作了二十年并出版了各种书籍后,Cornelia C. Walther 博士目前是宾夕法尼亚大学的高级研究员,致力于亲社会 AI。
DataDecisionMakers
欢迎来到 VentureBeat 社区!
DataDecisionMakers 是专家(包括从事数据工作技术人员)分享数据相关见解和创新的地方。
如果您想了解前沿理念和最新信息、最佳实践以及数据和数据技术的未来,请加入我们 DataDecisionMakers。
您甚至可以考虑自己撰写文章!
阅读 DataDecisionMakers 的更多内容