
在社交媒体上流传着一则不实报道,声称OpenAI对其使用政策进行了“新的”更新,将禁止其聊天机器人ChatGPT提供法律和医疗建议。对此,OpenAI明确表示,ChatGPT的行为“保持不变”。OpenAI健康AI负责人卡兰·辛格尔(Karan Singhal)在X(前身为Twitter)上发文指出,这些说法“并非事实”。
辛格尔在回复博彩平台Kalshi(该平台曾发布一条现已删除的帖子,宣称“突发:ChatGPT将不再提供健康或法律建议”)时强调:“ChatGPT从未被定位为专业建议的替代品,但它将继续成为一个极好的资源,帮助人们理解法律和健康信息。”他的言论旨在澄清,尽管ChatGPT功能强大,其核心定位仍是信息辅助工具,而非专业顾问。
辛格尔进一步指出,在OpenAI的服务条款中包含有关法律和医疗建议的政策,“并非我们条款的新变化。”这意味着此类规定一直存在,并非近期才新增的限制。
尽管如此,OpenAI在10月29日发布的最新政策更新中,确实列出了一系列禁止使用ChatGPT的情形。其中一项规定明确指出:“未经有执照专业人士的适当参与,提供需要执照的定制化建议,例如法律或医疗建议,”是禁止行为。这反映了OpenAI对AI工具使用的审慎态度,确保其不越界到专业领域。
这一规定与OpenAI此前的ChatGPT使用政策保持了一致性。早先的政策就要求用户不得进行“可能严重损害他人安全、福祉或权利”的活动,其中包括“在未经合格专业人士审查、未披露AI辅助使用及其潜在局限性的情况下,提供定制化的法律、医疗/健康或金融建议。”这表明OpenAI长期以来都对AI在敏感领域的应用保持警惕。
值得注意的是,OpenAI此前拥有三份独立的政策文件,分别涵盖了“通用”准则、ChatGPT专用准则以及API使用准则。而伴随此次更新,该公司将这些规定整合为一份统一的规则列表。其更新日志明确指出,这份新的规则集“反映了OpenAI所有产品和服务通用的政策”。尽管政策文件数量有所精简,但核心规则内容实际上并未发生改变,依然是那些旨在确保负责任使用AI的指导原则。
