人工智能:合作还是攻击
机器学习我们教他们的东西。 如果你不想让人工智能应用开枪,就不要给他们枪支。
编者注:欲了解更多信息,请查看2017年6月26日至29日在纽约举行的人工智能会议
更多人工智能内容请关注2018年4月10-13日人工智能北京大会

有不少的传言提到DeepMind的一些实验研究人工智能系统在玩游戏时是否具有攻击性或合作性。游戏里,参与者收集虚拟苹果,同时他们有能力通过“射击”虚拟的“激光”来临时性地使对手丧失能力。人类感到惊讶地发现,人工智能有时决定通过射击对手来获得优势,而不是和平地收集苹果。

我的问题很简单:这能告诉我们什么?答案也很简单:什么都没有。如果你让人工智能玩游戏,并允许向它向对手射击激光,你应该不会惊讶于人工智能会向对手发射激光,无论对手是虚拟的还是真实的。你不会期望它预先制定一些版本的阿西莫夫法则,并说:“我不能这样做”(如果软件不允许它发射激光,那么它不会,但这不会有趣)。你不能指望人工智能会有良心的危机,并说:“不,不,我不能这样做”,除非是给它编程某种负罪感模块。但据我所知这种模块不存在。

毕竟人类做着同样的事情。我们在第一人称射击游戏以及现实生活中开枪杀人。我们的政府有整个专门组织杀死别人的部门。而讽刺的是我们称之为“维护和平”。虽然人类有一个负罪感模块,但通常只有事后才能起作用。

像这样一个游戏可能回答的唯一有趣的问题是:人工智能系统是否比人类更愿意扣动扳机。我愿意打赌:

  • 当电脑对抗人类时,电脑会赢。我们已经有足够的在国际象棋、围棋和扑克方面失败的确凿经验了。
  • 人类更有可能去使用枪,因为这就是我们所做的。 DeepMind的研究表明,计算机只会在射击是成为获胜的有效策略的一部分时才开火。它不会因为应激反射、害怕或仅为找乐子而开枪。

这取决于你来决定射击作为获胜的有效策略的一部分是不是对人类行为的改进,但这正是我期望的。通过拒绝攻击性,DeepMind并没有在围棋上打败李世石

即使如此,考虑到我们只是在谈论一个游戏,我不确定这个实验向我们展示了什么。我觉得人工智能会在第一人称视角的射击游戏里表现得非常好。同时我也看不到任何理由在仅仅只是消灭比特的情况下,人工智能会衍生出阿西莫夫法则。我肯定不会志愿参加一个真实版的射击活动去对抗那些令人害怕的Boston Dynamics公司的产品。我更希望没有人计划进行这种实验。

同样,我看不出任何理由认为人工智能“知道”宇宙中的东西不仅仅是比特。我们对“机器学习”着迷,但最后,机器只会学到我们告诉他们学习的东西。我对奇点论持怀疑态度,但我同意当电脑完全依靠自己学习时,我们将面临一个奇点,即通过其传感器进入的某些比特模式是人,而这些比特的模式在性质上不同于狗、猫或岩石的模式。

最后,我们回到我们开始的地方。对人工智能的恐惧反映了我们对自己的恐惧。人工智能模仿人类的行为,因为我们教会它这样做:即在我们这里的清苦是是,要求它玩人造规则的游戏。正如我所说,如果我们想要更好的人工智能,我们必须是更好的人类。如果我们想要一个可以区分人与比特的人工智能,我们必须教会它人类是什么,以及在人存在时如何表现不同(“你可以射狼,你不能射人”)。如果根本不想让人工智能应用开枪,我们必须开发没有开枪能力的软件。

不要给你的人工智能枪支。

Mike Loukides

Mike Loukides是O'Reilly传媒负责内容策略的副总裁。他编辑了很多非Windows编程方面广受好评的技术书籍。特别是他对编程语言、Unix和其上的应用、系统和网络管理感兴趣。Mike是《系统性能优化》和《Unix上的强大工具》的作者之一。近年来他关注于数据和数据分析领域、分析语言(如R)、数学、Octave以及思考如何让书籍更加社交化。

Chess knights in battle. (source: Ken Teegardin on Flickr).