人工智能和自动驾驶汽车从围棋比赛中的新颖性得到的启示

人类将会展现出灿烂的光芒。虽然这可能不会一直发生,但很受欢迎。如果是人工智能(AI)似乎在展示一种新颖性的行为呢? 随之而来的就是很多疑问。

Go board view from above
来源:Getty Images

人工智能是如何想出这种明显出人意料的见解或新颖性的指示的? 这是一个错误,还是符合AI所期望的参数? 还有一个直接的考虑是,人工智能是否正以某种方式变得有感情?

请注意,现存的任何人工智能系统都无法接近感知能力,尽管媒体上充斥着各种说法和谎言。 因此,如果今天的人工智能似乎做了一些似乎是新颖性行为的事情,我们不应该草率地得出结论,认为这是人类对技术的洞察力或人工智能中人类独创性的出现。

这是不切实际的。现实情况是,任何此类“有洞察力”的AI创新都是基于各种具体的计算算法和有形的基于数据的模式匹配。

在今天的专栏中,我们将通过围棋游戏来深入研究人工智能驱动的新颖性行为,并将这些方面与基于人工智能的真正自动驾驶汽车的出现联系起来,以此来理解人工智能与人类的相关后果。

要意识到,人工智能系统正在有条不紊地完成发现或暗示新颖事物的能力,然而,相比之下,没有人能确切地说,人类如何能设计出新颖的想法或直觉。

也许人类也被一些内在的机械性方面所束缚,或者还有其他的事情在发生。 希望有一天,人类能揭开大脑内部运作的秘密,最终知道自己是如何思考的。但这可能会削弱我们这些人身上的神秘和魔法光环,尽管我们愿意用这个谜来交换杯子和球的把戏的真正作用(就像在帘子后面)。提到新颖性,一场著名的围棋比赛可以在这个整体主题上提供有用的启发。围棋是一种和国际象棋一样复杂的棋盘游戏。 大家都在争论象棋和围棋哪个更难,但是围棋非常复杂,需要高度集中精神,尤其是在比赛阶段。

一般来说,围棋包括在标准的围棋棋盘上夺取领土,棋盘由19 * 19的交叉线组成。 对于那些从来没有玩过围棋的人来说,最接近的类似游戏可能是你在童年时玩过的连点游戏,其中包括抢占地盘,尽管围棋的规模更大。

你不需要对围棋有任何特别的了解,就能了解接下来将要讨论的关于人类新颖性行为和人工智能新颖性行为的要点。

大约四年前举行了一场著名的围棋比赛,世界顶尖的职业围棋选手李世石(Lee Sedol)将与一款名为AlphaGo的人工智能程序对决。 关于这场比赛,有一部引人入胜的纪录片,大量的评论和在线视频详细报道了这场比赛,包括赛后分析。

重温2016年发生的一切

大多数人工智能开发人员都没有预料到当时的人工智能能够熟练到足以击败顶级围棋选手。 当然,人工智能已经能够击败一些顶级国际象棋棋手,从而让人们有了一丝希望,即围棋最终也能与人类围棋棋手匹敌,但当时还没有任何围棋程序能够与人类围棋棋手达到最高水平。 大多数人预计,人工智能的能力可能要到2020年左右才能足以参加世界级的围棋比赛。

DeepMind利用深度学习和机器学习创造了AlphaGo

一家名为DeepMind Technologies的小型科技公司设计了AlphaGo的人工智能游戏系统(该公司后来被谷歌收购)。利用机器学习技术和深度学习,AlphaGo程序被修改和调整到实际的比赛, 这是一种典型的开发扭曲,我们中的许多人在试图将最后一点添加到将要演示的内容中时都做过。

这是一场引起全球关注的具有里程碑意义的比赛。

人类围棋选手怀疑AlphaGo程序能否获胜。 许多人工智能技术人员都怀疑AlphaGo能否获胜。 就连AlphaGo的开发人员也不确定该程序的表现会有多好,包括担心AlphaGo程序会出现漏洞或进入一种妄想模式,犯下彻头彻尾的错误,并做出愚蠢的游戏。

100万美元的奖金被投入到这场比赛的奖金中。 游戏中有五局围棋,每天下一局,还有休息等相关规则。 一些人预测,Sedol会毫不费力地赢得所有五场比赛。 人工智能专家们一直抱着这样的希望:AlphaGo将至少赢得五局围棋中的一局,否则,在整个比赛中,它将展现出一个令人尊敬的围棋选手的形象。

在第一场比赛中,AlphaGo获胜。

这几乎是全世界的震惊。 Sedol大吃一惊。 许多围棋玩家都很惊讶,一个计算机程序能够与世石水平的棋手竞争并击败对手。 大家开始对AlphaGo程序和人工智能开发人员的努力给予一定程度的信任。

下一场比赛的气氛越来越紧张。

在第二场比赛中,人们曾预测,Sedol的比赛方式可能会发生重大变化。 有些人严厉地说,也许他刚开始参加比赛时过于自信了,第一场比赛的失败会让他意识到把所有注意力都放在比赛上的重要性。 或者,他可能在比赛中表现得像在和一个能力较差的参赛者竞争,因此没有全力以赴去赢得比赛。

第二场比赛发生了什么?

事实证明,AlphaGo再次获胜,而且对那些热衷于围棋的人来说,它还做了一件似乎非同寻常的事情。 在比赛进行到第37步时,AlphaGo程序选择了在围棋棋盘上的一个没有人特别期待的位置进行排位。在这场相对来说比较传统的比赛中,这是一个意外的举动,当时,人们纷纷猜测,这一举动是AlphaGo程序的彻底失态。

相反,它以一种新颖的走法而闻名,现在被称为“37步”,它在围棋中起到了预示作用,笼统地用于暗示人工智能做出新颖或出乎意料的举动的任何例子。

在第三场比赛中,AlphaGo再次获胜,在5胜3负的比赛中成功击败了Sedol。 他们继续打了第四场和第五场比赛。

在第四场比赛中,一切都像往常一样紧张,比赛开始了。 设身处地为Sedol想想。 从某种意义上说,他不只是一个围棋玩家,他在某种程度上代表了全人类(这是一个不公平且误导的观点,但无论如何都是普遍的),他面临着至少赢得一场比赛的压力。就算是一个游戏也能够让你对人类充满信心(这也是一种荒谬的看法)。

在第四局的第七十八步,Sedol做出了一个所谓的“楔子”游戏,这是一个非传统的游戏,让旁观者感到惊讶。 AlphaGo的下一步棋很烂,降低了人工智能系统获胜的可能性。 在加赛之后,AlphaGo最终认输并退出了比赛,因此Sedol终于赢得了这场人工智能的胜利。 最后他输掉了第五局,所以AlphaGo赢了四局,Sedol赢了一局。Sedol的走法也很出名,在围棋的传说中被称为“78步”。

还有一点值得了解,那就是AlphaGo的总体策略。

当你在玩一款游戏时,你可以瞄准在每个游戏时刻获取尽可能多的方块,并相信你将通过积累这些战术导向的成功而获得胜利。 人类的围棋棋手往往倾向于这样玩,国际象棋棋手也是如此,几乎所有的游戏都是如此。

另一种方法是为了获胜而游戏,即使只是以微弱的优势取胜,只要你赢了。 在这种情况下,你可能不会因为每个战术行动而获得短期领土或即时得分,而是愿意玩更大范围的游戏。 俗话说,如果你目光短浅,你可能会赢得一些战役,但最终可能会输掉这场战争。 因此,更好的策略可能是把注意力放在赢得战争的奖赏上,尽管这意味着沿途会有战斗和小冲突发生。

人工智能开发人员在设计AlphaGo时,就基于人工智能系统如何运行的宏观视角。

现在我们已经介绍了传奇的围棋比赛,让我们考虑一些关于新颖性的经验教训。

AI系统的“38步”并不神奇。 这确实是一个有趣的举动,AI开发者后来表示,AI已经计算出人类玩家很少会采取这一举动。

这可以用两种方式来解释(至少)。

一种解释是,人类玩家不会做出这样的举动,因为人类认为自己是正确的,并且知道这是一个糟糕的举动。另一种解释是,人类也不会做这样的举动,由于认为此举是不明智的,但这可能是由于人类的终极价值评估不足,从长远来看,被认为是在更短的时间内陷入游戏的假象。

在这个例子中,它被证明是一个很好的举动——也许是一个聪明的举动——并使游戏的进程对AI有利。 因此,看起来很聪明的举动实际上是经过深思熟虑的,很少有人会认为这是有价值的,这促使人们重新思考如何看待这类事情。

一些有用的经验总结:

1.展示人类有限的洞察力。 当人工智能做了一些看似新颖的事情时,它可能会被认为是新颖的,因为人类已经预先决定了什么是习惯,而任何超出习惯的东西都会被认为是不值得或错误的假设所钝化。 我们可能会说,我们在精神上被自己绘制的框框内与框框外的界限所困。

2.人类利用人工智能来增加洞察力。 人类可以对人工智能驱动的新事物进行有益的评估,从而有可能重新校准人类在给定主题上的思维,通过利用人工智能的巨大计算能力,扩大我们的理解,我们可能会发现或发现一些我们尚未确定的东西。 因此,除了欣赏新颖事物外,我们还应该寻求任何闪亮的来源,包括人工智能系统,来提高我们的智力。

3.人工智能创新是一把双刃剑。 我们需要留意所有AI系统及其以新方式行动的可能性,这可能是好的,也可能是坏的。 在围棋游戏中,它的效果很好。 在其他情况下,开发这条新颖路线的人工智能可能会偏离轨道。

让我们看看如何通过基于人工智能的自动驾驶汽车到来的探索来实现这一点。

了解自动驾驶汽车的水平

需要澄清的是,真正的自动驾驶汽车是由人工智能完全自主驾驶,在驾驶过程中没有任何人类协助。

这些无人驾驶汽车被认为是第4级和第5级,而需要人类司机分担驾驶任务的汽车通常被认为是第2级或第3级。 共享驾驶任务的汽车被称为半自动汽车,通常包含各种被称为ADAS(高级驾驶员辅助系统)的自动附加组件。目前还没有真正的5级自动驾驶汽车,我们甚至不知道这是否有可能实现,也不知道需要多长时间才能实现。

同时,四级努力逐渐试图得到一些牵引的经历非常狭窄的和选择性的公共道路试验,虽然有争论是否应该允许这种测试本身(有人认为,在高速公路和小路上进行的一项实验中,我们都是生死攸关的小白鼠)。

自动驾驶汽车和新颖性行为

对于4级和5级真正的自动驾驶汽车,不会有人类驾驶员参与驾驶任务。都是人工智能在驾驶。对于人工智能来说,驾驶真正的汽车是一款驾驶游戏,它需要战术决策和战略规划,类似于下围棋或象棋,尽管是在公共道路上驾驶一辆数吨重的汽车涉及生死攸关的时候。

基本假设是,人工智能驾驶系统总是会采取可靠的方法来做出任何驾驶决策。 这种假设在某种程度上是围绕这样一种观念形成的:人工智能是一种机器人或自动机,它没有人类的任何偏见或弱点。

在现实中,没有理由做出这种假设。 是的,我们通常可以排除人工智能不会表现出人类的情感,我们也知道人工智能不会在驾驶过程中醉酒或酒后驾驶。 尽管如此,如果人工智能已经使用机器学习(ML)和深度学习(DL)进行了训练,它可以从人类驾驶数据中提取人类行为模式的细微之处,它同样会利用或模仿这些数据来选择自己的驾驶行为(例如,一篇专栏文章,其中分析了人工智能中潜在的种族偏见和性别偏见的可能性)。

回到关于新颖性的话题,让我们思考一个具体的用例。

假设你以65英里每小时的通行速度在一条开阔的公路上行驶,几乎不可想象的事情发生了。 一辆车从对面车道向你驶来,可能以每小时60至70英里的速度行驶,突然出人意料地转向你所在的车道。在这无法预料的危机时刻,你会怎么做?而且时间不等人,你只有几秒钟的时间来做出生死攸关的驾驶决定。

你可以呆在你的车道上,希望其他司机意识到他们的错误,在最后一刻转向回到他们的车道上。或者,你可以主动进入对方车道,给其他司机在你的车道一个清晰的路径(但由于其他司机反应不过来,所以进入对方车道很危险)。是待在你的车道上还是转向相反的车道? 大多数人会在这两种选择之间左右为难。

假设自动驾驶汽车的人工智能面临同样的情况,人工智能会怎么做?

即使人工智能在接受ML/DL训练时,通过一个关于人类驾驶的数据库获得了数千英里的驾驶记录,这种情况也很可能发生。但可能不存在任何正面交锋的实例,因此没有可以利用的预先模式来做出这个繁重的决定。

总之,这里有个转折。

想象一下,人工智能计算了该走哪条路的概率,并以某种计算方式得出结论,自动驾驶汽车应该进入道路右侧的沟渠。 这是为了完全避免与另一辆车相撞(人工智能估计,迎头相撞几乎肯定会导致车内人员死亡)。AI估计进入沟以如此高的速度无疑会破坏汽车和乘客造成很大的身体伤害,但假设向死亡的可能性是计算低于正面选项的可能性(这是臭名昭著的电车问题的变体,如专栏中说的那样)。

大多数人都不太愿意故意把目标对准那条沟里,因为他们知道那条沟里肯定会有残骸和潜在的死亡,相反,他们愿意(但不情愿地)抓住希望中的机会,要么转向另一条车道,要么保持在路线上并希望一切顺利。从某种意义上说,人工智能似乎做出了一个新颖的选择。

回到之前关于AI新颖性的观点,在这个例子中,AI已经超越了人类自我强加的限制,因为AI考虑了其他“不可想象的”选项。 从这一点上,也许我们可以学习拓宽视野,寻找那些在其他方面似乎不明显的选择。

是AI的新颖性是一把双刃剑。

如果人工智能的反应是把车开到沟里,而你在自动驾驶汽车里,你受了重伤,你还会相信人工智能的新颖性行为是正确而有利的?

有些人可能会说,如果你能活着问出这个问题,显然人工智能做出了正确的选择。 而相反的观点则是,如果AI选择了其他选择,你可能就会直接驶过另一辆车而不会受到任何划伤。

总结

总的来说,采用新颖方法解决问题的人工智能可能是有利的,在某些情况下,比如玩棋类游戏可能是对的,也可能是错的,而这种游戏下的错误并不会危及人类的生命。

对于基于人工智能的真正的自动驾驶汽车来说,生命处于危险之中。

我们需要谨慎行事,仔细思考我们希望人工智能驾驶系统如何运行,包括在驾驶车辆时计算赔率和得出的选择。

声明:本站原创文章文字版权归前途科技所有,转载务必注明作者和出处;本站转载文章仅仅代表原作者观点,不代表前途科技立场,图文版权归原作者所有。如有侵权,请联系我们删除。

已有 0 条评论 新浪微博