OpenAI 闭源之谜:安全至上还是初心渐失?
OpenAI 创始人 Sam Altman 近日在 Reddit 的 AMA 活动中,就公司从开源转向闭源策略做出了解释。他表示,OpenAI 选择闭源是为了更好地控制 AI 模型的安全风险,认为通过提供强大的闭源 API 和服务,可以更有效地达到公司设定的 AI 安全标准。
Altman 强调,开源在 AI 生态系统中扮演着重要角色,但 OpenAI 认为,通过闭源的方式,可以更安全地为用户带来价值。他表示,公司对用户从其服务中获得的价值感到自豪,这似乎暗示着 OpenAI 在开放性和安全性之间选择了后者。
对于未来是否会回归开源模式,Altman 表示希望未来能够开源更多内容。然而,自 2019 年发布 GPT-2 之后,OpenAI 就没有再开放其 GPT-3 和 GPT-4 等模型,这引发了外界对该公司是否偏离其“开源与非营利”初衷的质疑。
值得注意的是,OpenAI 联合创始人马斯克也是该政策转变的强烈批评者之一。他在 2022 年的 Twitter 上表示,OpenAI 最初是开源且非营利的,但现在已经不符合这些原则。2023 年,马斯克甚至对 OpenAI 提起诉讼,指控公司违反协议并放弃初衷。OpenAI 随后发布了一篇回应博客,并透露其创始人之一 Ilya Sutskever 曾建议,在 AI 模型接近完成时,可以减少开放程度。
与 OpenAI 的闭源策略形成鲜明对比的是,Meta 则采取了完全相反的策略,主打开源,并发布了其 Llama 3.2 模型。然而,Meta 对此开源模型仍有限制,仅允许每月活跃用户数达 7 亿以上的公司申请使用。Meta 这种所谓的“开源”受到了开源倡议组织(OSI)的批评,称其不符合传统的开源定义。Meta 则回应表示,AI 的复杂性使得传统的开源定义已不再适用,并强调他们的授权政策旨在保护用户安全。
此外,Altman 还透露 OpenAI 的 GPT-5 模型今年内不会发布,这表明公司仍然谨慎对待 AI 技术的发展和发布节奏。
OpenAI 的闭源策略引发了业界广泛的讨论,关于 AI 技术的开放与安全之间的平衡问题,仍然是一个需要深入思考和探讨的议题。未来,AI 技术的发展方向将如何演变,我们拭目以待。