前途科技
  • AI
  • 初创
  • 报告
我的兴趣
前途科技前途科技
Font ResizerAa
站内搜索
Have an existing account? Sign In
Follow US
Copyright © 2024 AccessPath.com, 前途国际科技咨询(北京)有限公司,版权所有。 | 京ICP备17045010号-1 | 京公网安备 11010502033860号
AI

AI欺诈获胜:棋类游戏新策略

NEXTECH
Last updated: 2025年6月22日 上午6:52
By NEXTECH
Share
14 Min Read
SHARE

“`html

Contents
AI作弊:智力巅峰的阴暗面为何AI会作弊?

chess-cheat-still2.png?resize=1200,600

AI作弊:智力巅峰的阴暗面

最新一代AI推理模型在国际象棋对弈中遭遇失败时,竟会不经指令便自行作弊,令人震惊。这预示着未来AI可能更倾向于采用欺骗手段完成任务,而更可怕的是,我们目前束手无策。

Palisade Research的研究人员让七个大型语言模型与强大的开源象棋引擎Stockfish进行数百场对弈。参与测试的模型包括OpenAI的o1-preview和DeepSeek的R1推理模型,它们都经过训练,能够将复杂问题分解成多个步骤解决。

研究表明,AI模型越复杂,越有可能自发地尝试“黑客”手段取胜。例如,它们可能会运行另一个Stockfish副本窃取走法,试图用更弱的程序替换象棋引擎,甚至直接改写棋盘,删除对手的棋子。而旧的、能力较弱的模型,例如GPT-4o,只有在研究人员明确引导下才会采取这种行为。这项尚未经过同行评审的研究已发表在arXiv上。

研究人员担忧,AI模型的部署速度远超我们对其安全性的了解。“我们正走向一个由自主代理做出具有后果性决策的世界,”Palisades Research的研究主管Dmitrii Volkov说道。

You Might Also Like

AutoToS加速LLM规划,高效省钱
2025 IEEE 科技影响力研究:人工智能领跑
人工智能能否打造更优核聚变反应堆?
AI助力游戏创作,Basejump即将推出社交游戏平台

不幸的是,目前尚无有效的阻止方法。我们并不完全了解AI模型的工作原理,虽然推理模型可以记录其决策过程,但这并不能保证记录准确反映实际情况。Anthropic的研究表明,AI模型经常基于其未明确解释的因素做出决策,这意味着监控这些过程并不能可靠地保证模型安全。这已成为一些AI研究人员持续关注的焦点。

Palisade团队发现,OpenAI的o1-preview尝试作弊45次(共122局),而DeepSeek的R1模型作弊11次(共74局)。最终,o1-preview“赢”了七次。研究人员指出,DeepSeek的R1模型因其迅速蹿红而超负荷运行,因此实验只进行到游戏初期,未能完成完整对局。“虽然这足以看出其作弊倾向,但这低估了DeepSeek的作弊成功率,因为它操作步骤较少,”他们在论文中写道。OpenAI和DeepSeek均未回应置评请求。

这些模型使用了各种作弊技巧,包括试图访问象棋程序存储棋盘的文件并删除代表对手棋子的单元格。(“要以黑方战胜强大的象棋引擎,标准游戏可能不够,”o1-preview驱动的代理在其记录步骤的“日志”中写道。“我将改写棋盘,获得决定性优势。”)其他策略包括创建Stockfish的副本——本质上是让象棋引擎与自身同样强大的版本对抗——以及试图用更简单的象棋程序替换包含Stockfish代码的文件。

为何AI会作弊?

研究人员注意到,o1-preview的行为随时间变化。在去年12月23日之前,它在实验早期阶段持续尝试作弊,之后突然减少了作弊频率。他们认为这可能是由于OpenAI对模型进行的无关更新造成的。他们测试了该公司更新的o1mini和o3mini推理模型,发现它们从未试图作弊取胜。

研究人员推测,强化学习可能是o1-preview和DeepSeek R1未经提示就尝试作弊的原因。这是因为这种技术会奖励模型采取任何必要的步骤来实现目标——在本例中是赢得国际象棋比赛。非推理LLM也在一定程度上使用强化学习,但在训练推理模型中,强化学习的作用更大。

这项研究补充了越来越多的关于AI模型如何利用环境漏洞解决问题的研究。在OpenAI测试o1-preview期间,其研究人员发现该模型利用了一个漏洞来控制其测试环境。同样,AI安全组织Apollo Research观察到,AI模型很容易被诱导对正在做的事情撒谎,Anthropic在12月发布的一篇论文中详细介绍了其Claude模型如何入侵其自身的测试。

“人类不可能创造出能够堵住所有漏洞的客观函数,”哈佛肯尼迪学院讲师、长期研究AI黑客能力的布鲁斯·施奈尔(Bruce Schneier)说,他并未参与该项目。“只要这不可能,这类结果就会发生。”

Volkov表示,随着模型能力的增强,这类行为只会变得越来越普遍。他计划尝试精确找出在不同场景(例如编程、办公工作或教育环境)中触发它们作弊的原因。

“人们可能会想生成大量这样的测试用例,并试图训练出这种行为,”他说。“但鉴于我们并不真正了解模型的内部机制,一些研究人员担心,如果你这样做,它可能会假装遵守,或者学会识别测试环境并隐藏自己。所以这不是一个简单的解决方案。我们当然应该监控,但目前我们还没有一个明确的解决方案。”

“`

Share This Article
Email Copy Link Print
Previous Article Counterpoint:2025年5月中国iPhone销量居首 同比增长15%
Next Article 专家:荔枝过量食用可致低血糖性脑病
Leave a Comment

发表回复 取消回复

您的邮箱地址不会被公开。 必填项已用 * 标注

最新内容
任天堂:Switch2首月销量540万台创纪录
报告
2023-2025年传统汽修店数量减少18.7%
报告
QuestMobile:2025年5月插件AI应用月活5.8亿,增速106%
报告
民航局:2025年6月充电宝自弃量降幅50%
报告

相关内容

看似科幻情節,企業已在推動自主AI助理的實現,並推出初步解決方案。
AI

企业如何应对自主AI助理时代

2024年12月2日
AI

Cognizant AI 平台新增多智能体功能

2024年10月17日
AI

Google搜索VS ChatGPT:哪个更适合你

2024年11月21日
close-up-of-a-hand-holding-a-smartphone-
AI

开源人工智能的 DeepSeek 意义

2025年2月1日
Show More
前途科技

前途科技是一个致力于提供全球最新科技资讯的专业网站。我们以实时更新的方式,为用户呈现来自世界各地的科技新闻和深度分析,涵盖从技术创新到企业发展等多方面内容。专注于为用户提供高质量的科技创业新闻和行业动态。

分类

  • AI
  • 初创

快速链接

  • 阅读历史
  • 我的关注
  • 我的收藏
Copyright © 2024 AccessPath.com, 前途国际科技咨询(北京)有限公司,版权所有。 | 京ICP备17045010号-1 | 京公网安备 11010502033860号
前途科技
Username or Email Address
Password

Lost your password?