订阅我们的每日和每周新闻简报,获取有关行业领先人工智能报道的最新更新和独家内容。了解更多
随着新年的到来,即将上任的特朗普政府预计将在现有政策方面做出许多改变,人工智能监管也不例外。这很可能包括废除现任总统乔·拜登签署的一项人工智能行政命令。
拜登的行政命令设立了政府监管办公室,并鼓励模型开发人员实施安全标准。虽然拜登人工智能行政命令规则侧重于模型开发人员,但其废除可能会给企业带来一些需要克服的挑战。一些公司,例如特朗普盟友埃隆·马斯克的 xAI,可能会从该命令的废除中受益,而另一些公司则预计会面临一些问题。这可能包括不得不应对错综复杂的监管、数据来源的开放程度降低、政府资助的研究减少以及对自愿负责任的人工智能计划的重视程度提高。
在行政命令签署之前,政策制定者与行业领导人进行了多次听证会和听证会,以确定如何最好地适当地监管技术。在民主党控制的参议院,人工智能法规有可能向前推进,但内部人士认为,对围绕人工智能的联邦规则的兴趣已经明显冷却。
负责任创新实验室执行主任高拉布·班萨尔在纽约举行的 ScaleUp: AI 大会上表示,缺乏对人工智能的联邦监管可能会导致各州制定自己的政策。
“有一种感觉是,国会两党都不会监管人工智能,因此将是各州可能会效仿加州的 SB 1047,”班萨尔说。“企业需要一致的标准,但当不同地区存在错综复杂的标准时,情况会很糟糕。”
加州州议员推动了 SB 1047,该法案将要求对模型实施“终止开关”,以及其他政府控制措施,该法案最终送到了州长加文·纽森的办公桌上。纽森否决了该法案,这得到了 Meta 的扬·勒昆等行业巨头的庆祝。班萨尔表示,各州更有可能通过类似的法案。
乔治·梅森大学梅卡图斯中心的资深研究员迪安·鲍尔表示,公司可能难以应对不同的法规。
“这些法律很可能会为人工智能开发人员和希望使用人工智能的公司创造复杂的合规制度和错综复杂的法律体系;共和党控制的国会将如何应对这一潜在挑战尚不清楚,”鲍尔说。
行业主导的负责任人工智能一直存在。然而,由于客户要求关注安全,公司在承担更多责任和公平方面更加积极主动的负担可能会加重。模型开发人员和企业用户应该花时间实施负责任的人工智能政策,并建立符合欧盟人工智能法案等法律的标准。
在 ScaleUp: AI 大会上,微软负责任人工智能首席产品官莎拉·伯德表示,许多开发人员及其客户,包括微软,正在为欧盟人工智能法案做好准备。
但伯德表示,即使没有广泛的法律来管理人工智能,将负责任的人工智能和安全从一开始就融入模型和应用程序中始终是一个好习惯。
“这对初创公司来说将很有帮助,人工智能法案要求你做的大部分高级内容都是常识,”伯德说。“如果你正在构建模型,你应该管理进入模型的数据;你应该测试它们。对于较小的组织来说,如果你从头开始,合规性会更容易,因此投资于一个能够随着数据增长而管理数据的解决方案。”
然而,了解用于训练企业使用的各种大型语言模型 (LLM) 的数据的具体内容可能更难。密歇根大学机器人学教授、计算机视觉公司 Voxel51 的联合创始人杰森·科尔索告诉 VentureBeat,拜登的行政命令鼓励模型开发人员更加开放。
“我们无法完全了解一个样本对具有高度潜在偏差风险的模型的影响,对吧?因此,如果在使用这些模型以及输入模型的数据方面没有治理,模型用户的业务可能会受到影响,”科尔索说。
人工智能公司目前享有大量的投资者兴趣。然而,政府经常支持一些投资者认为风险过高的研究。科尔索指出,新一届特朗普政府可能会选择不投资人工智能研究以节省成本。
“我只是担心没有政府资源来支持这些高风险、早期项目,”科尔索说。
然而,新政府并不意味着不会为人工智能拨款。虽然目前尚不清楚特朗普政府是否会废除新成立的人工智能安全研究所和其他人工智能监管办公室,但拜登政府确实保证了直到 2025 年的预算。
“一个悬而未决的问题是,特朗普将如何取代拜登的行政命令,这个问题必须考虑如何组织权力并分配根据人工智能倡议法案拨款的资金。该法案是拜登委托给 NIST 等机构的许多权力和活动的来源,资金将在 2025 年继续。由于这些资金已经分配,许多活动很可能会以某种形式继续。然而,这种形式是什么样子还有待揭晓,”梅卡图斯中心的资深研究员马特·米特尔斯泰特说。
我们将在 1 月份了解下一届政府对人工智能政策的看法,但企业应该为未来可能发生的一切做好准备。