道德 AI 借助 SAS 和 Abnormal Security 的见解,我们思考应采用哪些道德原则指导 AI 发展,以及企业如何确保问责制
随着人工智能格局的不断变化,人工智能技术(包括生成式人工智能)的使用不断增加,Salesforce 的研究发现,61% 的人在工作中使用人工智能。但随着越来越多的企业寻求开发和部署这项技术,全球讨论的焦点转向如何安全地做到这一点。
人工智能伦理是指利益相关者遵循的一套指导原则,以确保负责任地使用人工智能。这有助于创造一种安全可靠且以人为本的整体人工智能方法——这意味着人工智能不太可能导致裁员。
本月,《AI Magazine》采访了 SAS 和 Abnormal Security 的专家,探讨了如何实施严格的 AI 道德原则不仅可以保证企业安全,还可以维护客户的信任。
实施道德人工智能原则
虽然世界各地已经开始实施立法,包括欧盟人工智能法案,但组织必须制定自己的道德策略,以确保其员工受到保护。随着人工智能的使用不断增长,这一点尤其重要,企业必须意识到人工智能的风险并相应地实施框架。
SAS 人工智能与道德负责人 Prathiba Krishna 表示:“可以根据组织的数据和分析成熟度对道德原则的采用进行排序和优先排序。为了使值得信赖的人工智能成为创新的中心,我们制定了六项指导原则:以人为本、透明度、包容性、问责制、隐私和安全以及稳健性。”
制定道德框架并制定明确的行业标准是利用负责任的人工智能的良好起点。同样,正如 Prathiba 所解释的那样,将道德纳入人工智能模型的设计中(即多样化的观点和数据集)可以带来更积极的结果。
她补充道:“他们还可以寻求与学术机构合作并制定多方利益相关者倡议,以帮助确保这些方法得到实施。”
在部署道德原则时,企业必须以透明度指导人工智能发展,以保持人类对技术的责任。
Abnormal Security 机器学习主管 Dan Shiebler 表示:“任何开发人工智能或在其产品中使用人工智能的公司都应尽可能优先考虑透明度,并保证人工智能的运行方式以及如何管理用户数据。”
“任何好的产品都将优先考虑人类责任而不是系统行为——这意味着,在执行和可能撤销人工智能采取的任何行动时,人类应该能够做出最终决定。”
然而,当涉及医疗保健或刑事司法等特定的人工智能应用领域时,可能会出现道德挑战。
当被问及这些问题时,Prathiba 评论了这两个行业如何对个人产生重大影响。
“如果不从道德角度看待问题,医疗保健可能会面临一系列独特的道德挑战,如误诊和不当治疗、拒绝用药、失去信任和健康差距,”她说。“在刑事司法领域,道德挑战可能出现,如对司法系统的信任度下降、保释决定的公平性受损以及判决错误。”
Dan 补充道:“如今大多数人工智能模型都像‘黑匣子’一样运行,几乎无法了解决策过程。这可能会导致有偏见或不安全的决策。在刑事司法和医学等行业,决策可能会对用户产生重大的、改变生活的影响,如果人工智能被滥用,这些风险会加剧,并可能对个人造成直接或间接的伤害。”
承担责任:保持人工智能以人为本
为了保持人工智能的道德性,企业必须确保其人工智能系统内培养透明度和责任感。
可以通过让利益相关者参与进来、建立监督机制和提供教育和培训来确保在整个工作场所负责任地使用人工智能。这可以帮助在企业内部培养积极的文化,从而提高公众对人工智能的信任,并促进包容性和可持续发展。
“人工智能系统应该附带解释,也应该要求人类对人工智能系统的决策负责——就像经理对员工的行为负责一样,”丹评论道。
Prathiba 补充道:“我们需要在编写第一行代码之前就规划好值得信赖的人工智能。它需要作为一个连续的过程贯穿整个人工智能生命周期。人工智能平台具备相关功能是必要的,但仅靠技术是不够的——它还需要一种全面的治理方法,包括人员和可靠的流程。
“透明度和问责制与人工智能系统密不可分。实现透明度也意味着实现一定程度的问责制。这还可以建立数据沿袭并解释如何进行模型预测。”
在实施道德商业 AI 时,持续改进流程是必要的,例如在有新数据可用时更新系统、重新训练模型以变得更加相关并适应环境条件。
Prathiba 强调说:“理解和解释模型如何做出决策的能力是透明度的一个重要因素。”
为了保证人工智能系统符合道德规范,有人建议以人类为中心来验证人工智能做出的决策至关重要。理论上,生成的任何解决方案都更加可靠,这应该会激发更大的信任。
Prathiba 表示:“人工智能流程应该能够结合模型结果和业务规则,以嵌入数据的社会方面。建立故障安全措施并采取冗余措施非常重要,以确保关键决策在必要时由人类操作员审查或推翻。
“道德探究很重要,对于每一个人工智能用例,我们都需要反思指导原则,最重要的是问自己这三个问题:目的是什么?结果如何?谁可能会失败?”
开发或利用人工智能的企业也将受益于个人、公司和系统之间的责任链。
“模型需要在硬件上运行并由软件提供服务,但我们应该让拥有这些系统的机构对这些系统的行为负责,”丹总结道。“这激励这些人和机构创建适当的护栏。”
**************
请务必查看最新一期的《AI Magazine》 ,并订阅我们的全球会议系列 – Tech & AI LIVE 2024
**************
AI Magazine是BizClik旗下品牌