人工智能监管的狂野西部:企业领导者如何应对?
人工智能正在以前所未有的速度发展,但监管环境却一片混乱。随着即将上任的特朗普政府承诺采取不干预监管的方式,联邦层面缺乏人工智能监管意味着美国正面临着由各州主导的零散规则,或者在某些情况下根本没有规则。
最近的报道表明,当选总统特朗普正在考虑在白宫任命一位“人工智能沙皇”,以协调联邦政策和政府对人工智能的使用。虽然此举可能表明对人工智能监管的态度正在发生变化,但目前尚不清楚实际上将实施多少监管。虽然特斯拉首席执行官埃隆·马斯克似乎没有担任人工智能沙皇的角色,但他预计将在塑造未来用例和围绕人工智能的辩论中发挥重要作用。但马斯克难以捉摸。虽然他主张最低限度的监管,但他同时也表达了对不受约束的人工智能的担忧——因此,如果说有什么不同的话,他的角色只会带来更多的不确定性。
特朗普的“效率”任命者马斯克和维韦克·拉马斯瓦米承诺对联邦官僚机构采取“电锯”式的方法,将其削减“25%”或更多。因此,似乎没有任何理由期待在短期内出现强有力的监管。对于像富国银行梅塔·钦坦这样的高管来说,他们在今年 1 月份的 AI 影响力活动中呼吁进行监管以创造更多确定性,这种缺乏监管并没有让事情变得更容易。
事实上,围绕人工智能的监管已经远远落后,而进一步推迟只会带来更多麻烦。这家银行已经受到严格监管,它面临着未来可能被监管的持续猜测。这种不确定性迫使它投入大量工程资源“在事物周围搭建脚手架”,钦坦当时说,因为它不知道应用程序上市后会发生什么。
这种谨慎是合理的。凯捷通用人工智能执行副总裁史蒂夫·琼斯表示,由于没有联邦人工智能监管,像 OpenAI、微软、谷歌和 Anthropic 这样的前沿模型公司对他们的模型生成的任何有害或可疑内容都不负责任。因此,企业用户只能承担风险:“你只能靠自己,”琼斯强调说。如果出现问题,公司无法轻易追究模型提供商的责任,这增加了他们面临潜在责任的风险。
此外,琼斯指出,如果这些模型提供商使用未经适当赔偿的抓取数据或泄露敏感信息,企业用户可能会成为诉讼的目标。例如,他提到了一个大型金融服务公司,该公司已经采取了“中毒”其数据的措施——将虚构数据注入其系统,以识别任何未经授权的使用,以防数据泄露。
这种不确定的环境给企业决策者带来了巨大的风险和隐藏的机会。
加入我们,参加 12 月 5 日在华盛顿特区举办的关于人工智能监管的独家活动,届时将有来自凯捷、Verizon、富达等公司的演讲者,我们将消除噪音,提供清晰的策略,帮助企业领导者领先于合规挑战,驾驭不断变化的监管拼图,并利用当前环境的灵活性,在没有恐惧的情况下进行创新。倾听人工智能和行业顶级专家的见解,他们将分享可操作的见解,指导您的企业度过这场监管的“狂野西部”。(RSVP 和完整议程链接在此。名额有限,请尽快行动。)
在人工智能快速发展的环境中,企业领导者面临着双重挑战:利用人工智能的变革潜力,同时遇到往往不明确的监管障碍。越来越多的公司需要主动出击,否则他们可能会陷入困境,就像 SafeRent、DoNotPay 和 Clearview 一样。
凯捷的史蒂夫·琼斯指出,依赖模型提供商而没有明确的赔偿协议是有风险的——不仅模型的输出可能造成问题,而且数据实践和潜在的责任也可能造成问题。
缺乏统一的联邦框架,加上各州不同的法规,造成了复杂的合规环境。例如,FTC 对 DoNotPay 等公司的行动表明,在与人工智能相关的虚假陈述方面,FTC 采取了更加强硬的立场,而纽约的“偏差审计法”等州级举措则施加了额外的合规要求。任命人工智能沙皇的可能性可能会集中人工智能政策,但对实际监管的影响仍不确定,这使得公司面临的问题多于答案。
企业领导者必须采取主动策略来应对这种环境:
- 实施强大的合规计划:制定全面的 AI 治理框架,解决潜在的偏差,确保透明度,并遵守现有和新出现的法规。
- 关注监管发展:定期监控联邦和州的监管变化,以预测和适应新的合规义务,包括潜在的联邦举措,如人工智能沙皇倡议。
- 与政策制定者互动:参与行业组织并与监管机构互动,以影响平衡的人工智能政策的制定,这些政策既要考虑创新,又要考虑道德因素。
- 投资于道德人工智能实践:优先考虑开发和部署符合道德标准的人工智能系统,从而降低与偏差和歧视相关的风险。
企业决策者必须保持警惕、适应性和主动性,才能成功应对人工智能监管的复杂性。通过从他人的经验中学习,并通过研究和报告保持知情,公司可以将自己定位为利用人工智能的优势,同时最大限度地降低监管风险。我们邀请您参加 12 月 5 日在华盛顿特区举行的即将到来的沙龙活动,成为这场重要对话的一部分,并获得必要的知识,以领先于监管曲线,并了解潜在的联邦行动(如人工智能沙皇)的影响。