人工智能监管:新时代下的风险与机遇
人工智能监管一直是热门话题,但随着新一届美国政府即将上台,人工智能监管的未来却变得扑朔迷离。这对于原本就复杂的合规环境来说,无疑增添了更多变数和不确定性。
VentureBeat 人工智能影响力之旅与凯捷合作,在华盛顿特区举办了一场活动,探讨了即将到来的监管环境将带来的风险和机遇,并分享了应对新常态的见解。
VB 首席执行官 Matt Marshall 与 Fidelity Labs 高级副总裁 Vall Hérard、Verizon 人工智能/机器学习工程高级总监 Xuning (Mike) Tang 以及凯捷数据驱动业务和生成式人工智能执行副总裁 Steve Jones 进行了对话,探讨了人工智能监管在金融服务和电信领域面临的日益严峻的挑战,并深入分析了风险管理、问责制威胁等问题。
Jones 指出,缺乏监管会导致缺乏问责制,而这将导致大型语言模型的行为无法得到有效控制,包括窃取知识产权。如果没有监管和法律制裁,解决知识产权盗窃问题将只能诉诸法庭,或者更可能的是,特别是对于拥有雄厚资金的公司来说,责任将转移到最终用户身上。当盈利超过财务损失的风险时,一些公司会突破界限。
“我认为,法庭的制裁还不够,人们将不得不采取措施保护自己的知识产权,以避免损失。这听起来很悲哀,但如果风险是将知识产权放到互联网上,然后有人窃取了你的整个目录并直接出售,那么这种情况就必须发生。” Jones 说。
在现实世界中,不受监管的人工智能陪伴应用程序已经导致了悲剧,例如一名 14 岁的男孩为了与聊天机器人陪伴,与朋友和家人隔绝,最终自杀。如果监管进一步弱化,如何才能在类似事件中追究产品责任,防止类似事件再次发生?
“从人工智能的角度来看,这些大规模杀伤性武器非常强大,应该对它们的控制负起责任。” Jones 说。“我相信,只有当有动力去追究责任时,才能将这种责任强加于创造这些产品的公司。”
例如,该男孩的家人正在对聊天机器人公司提起诉讼,该公司现在在其平台上实施了新的安全和自动审核政策。
如今的人工智能战略需要围绕风险管理展开,了解你的业务面临的风险,并保持对风险的控制。Jones 补充说,人们对潜在数据泄露问题并不感到愤怒,因为从商业角度来看,真正的愤怒在于人工智能失误可能对公众形象造成的影响,以及诉讼的威胁,无论涉及的是人命还是利润。
“如果我向客户发布了幻觉,这会让我的品牌看起来很糟糕。” Jones 说。“但我会被起诉吗?我发布了无效的内容吗?我发布了看起来像剽窃竞争对手的内容吗?所以我更担心的是给律师带来生意。”
他补充说,保持模型尽可能小将是另一个关键策略。大型语言模型功能强大,可以完成一些令人惊叹的任务。但企业是否需要其大型语言模型来下棋、说克林贡语或写史诗诗歌?模型越大,隐私问题就越大,潜在的威胁向量就越多,Tang 早些时候指出。Verizon 在其流量数据中拥有大量内部信息,一个包含所有这些信息的模型将非常庞大,并且存在隐私风险,因此 Verizon 旨在使用最小的模型来提供最佳结果。
Hérard 说,用于处理特定、狭义定义的任务的较小模型也是减少或消除幻觉的关键方法。当用于训练模型的数据集规模足够小,可以进行完整的合规性审查时,更容易控制合规性。
“令人惊叹的是,在企业用例中,了解我的业务问题,了解我的数据,这个小模型就能提供一组非凡的结果。” Jones 说。“然后将它与微调相结合,只做我想做的事情,并进一步降低我的风险。”