据《纽约时报》周四报道,去年发生了一起重大安全漏洞,一名黑客入侵了 OpenAI 的内部消息系统,窃取了有关该公司人工智能技术的敏感信息。此次漏洞还暴露了研究人员和其他员工之间的内部对话,凸显了公司内部的漏洞。
据《纽约时报》报道,黑客据称访问了一个在线论坛,OpenAI 员工在该论坛上讨论他们最新的技术进步。然而,黑客并没有侵入 OpenAI 开发和维护其人工智能的核心系统。尽管此次入侵十分严重,但微软公司支持的 OpenAI 并未回应媒体的置评请求。
《纽约时报》报道称:“去年年初,一名黑客入侵了 ChatGPT 开发商 OpenAI 的内部消息系统,窃取了该公司人工智能技术设计的详细信息。据两位知情人士透露,黑客窃取了员工讨论 OpenAI 最新技术的在线论坛讨论细节,但并未入侵该公司存储和构建人工智能的系统。”
该公司在去年 4 月的全体员工大会上向员工通报了此次泄密事件,董事会也收到了通知。然而,高管们选择不公开披露此事,因为没有客户或合作伙伴的信息被泄露。
决定不公开此次入侵事件是基于这样的评估:黑客似乎与任何外国政府都没有关系,因此不会对国家安全构成威胁。因此,OpenAI 没有向 FBI 或其他联邦执法机构报告此事。
对于一些 OpenAI 员工来说,此次泄密事件引发了他们对来自中国等外国对手的潜在威胁的担忧,这些对手可能会试图窃取人工智能技术,最终可能对美国国家安全构成威胁。此次事件还引发了人们对 OpenAI 对安全承诺的质疑,并揭示了内部对人工智能技术相关风险的分歧。
泄密事件发生后,OpenAI 的技术项目经理 Leopold Aschenbrenner 向公司董事会发送了一份备忘录,他主要负责防止有害的人工智能应用。在备忘录中,他指出 OpenAI 没有采取足够的措施保护其机密不被包括中国政府在内的外国对手窃取。
5 月,OpenAI 宣布已挫败五起试图滥用其 AI 模型进行在线欺骗活动的秘密影响行动。这一事件加剧了人们对 AI 技术可能被滥用的安全担忧。
在这些安全问题下,拜登政府一直在准备采取措施,保护美国人工智能技术免受中国和俄罗斯等对手的侵害。据路透社报道,初步计划包括对最先进的人工智能模型(包括 ChatGPT)实施严格的监管。
据路透社报道,在5月份举行的一次全球会议上,16家开发人工智能的公司承诺将专注于该技术的安全发展,这反映出监管机构对应对人工智能领域快速创新和新出现的风险的紧迫性日益增强。
OpenAI 由 Sam Altman 和 Elon Musk 于 2015 年创立,最初是一家致力于推进安全有益的通用人工智能 (AGI) 的非营利研究组织。然而,在 2020 年,它转型为一家商业实体,标志着其发展道路发生了重大转变。尽管 11 月面临内部动荡,包括 Altman 短暂离职和随后回归,但 OpenAI 继续引领充满活力的人工智能市场,这得益于其旗舰产品 ChatGPT(于 2022 年推出)的成功。