神刀安全网

未来的人工智能会不会像 AlphaGo 一样“抽风”?我们找了位专家聊了聊

尽管 人类棋手 和 AlphaGo 的世纪大战已告一段落,但必须承认,它确实改变了许多人对于 AI 的传统观念。除了原先那个经典的话题 “ AI 会不会统治人类 ” 以外,现在又有人增加了一个新的话题,“ AI 会不会像 AlphaGo 抽风?”。毕竟,我们有目共睹,在前面三局里,尽管 AlphaGo 表现绝佳,但是第四盘第五盘却频出问题,水平在极高和极低之间上下跳跃。而且谷歌的工程师似乎还对此没有办法。想一想,这种 “ 抽风 ”确实挺恐怖的 —— 这毕竟是下围棋,可是要是 AlphaGo 在金融上面,又或者用在战争上呢?倘若真的突然下的不是棋,而是核弹的话,人类的文明就真的要成了一个笑话了。

为了对付这个问题,我们专门去找了一位专业人士。他是旷视的深度学习领域专家周舒畅。

PingWest:最近AlphaGo和李世石的人机对弈以后,许多人对人工智能和深度学习产生了新的兴趣。那么,有时候我想问的就是,AlphaGo 在前面表现一直都很好,但是第四局开始出现很多低级错误,给人一种抽风的感觉,为什么会发生这样的情况?

周舒畅:首先我先把它的结构稍微的讲一下,AlphaGo不能归结于只是一个深度学习,它有深度学习,也有搜索的部分,它是这两者的结合。我们现在一块一块的来看。

首先是深度学习。深度学习的方法现在最常见的分支叫做有监督学习。有监督学习的意思其实就是说,我有许多标准答案的卷子,我不停地试着做问题,做完了参考答案。一开始我可能不会做,但做了很多次以后,我成功率逐渐就上来了。围棋的深度学习部分也是类似这样的。它看了那么多棋谱,有一部分是以前人类的棋谱,另一部分就是它自己跟自己下的棋谱。通过已知的棋谱,它能够像人一样,逐渐对一些情况作出自己的判断。

但是深度学习有没有局限性?也有。就跟人的学习一样,它其实是依赖一种叫做泛化能力的机制,从已知推断到未知。比如说你见过一万只天鹅发现都是白的,然后你就推断出天鹅都是白的,以后看到天鹅就是白的。但是这个时候你就有一个风险:比如说人们在埃及发现一种黑天鹅,那深度学习这块就会出错。

第二它除了深度学习部分,还有一个强化学习,准确应该说是搜索的部分。搜索的部分简单来说就是它自己心里跟自己下棋,假设我这几步,李世石会怎么下,我再接着应该怎么下。

当然只做一次肯定不靠谱,所以它可能会做多次。所以我们看它这里有两个随机性,一个就是说它在推演自己和李世石下面几步,就是两个阶段,一个是推演下面几步,另外一个阶段是从那几步开始,开始叫开始到结局,这两部分都是有随机性在里面,只要有随机性,肯定也是会出错的。即使他自己认为自己是70%的概率,假设这个是对的,李世石还有三成的概率会赢。更何况李世石在里面可能藏了一手,有可能Alpha Go赢的概率,实际上李世石看来是只有10%,也就是说AlphaGo被欺骗了。当然,有可能之前它也被李世石骗过好几次,但是可能之前走了一步两步它忽然明白了,李世石也赚到的好处不多。但是这次它被骗的步数非常多,最后就得输棋了。

PingWest:我看到一个说法说,这个跟图像识别有很大的关系,比如李世石的下法实际上把棋盘分成了若干块不相连接的非常复杂的图像,这样就造成了它在局部上的识别的困难。这种说法有没有道理呢?

周舒畅:所谓图象识别,就是把19×19的图片,把那个围棋棋盘当个图像丢进去给打分。它可以通过这个分数对棋局有一个整体的把握。它用的网络是叫做“卷积神经网络”,这个网络有个特性,就是它有一定的平移不变性,所以你可以认为它对局部也有很好的建模。

那么这个问题是不是图像识别的问题?这个恐怕不好说,首先你可以认为,它的图象识别部分是它的“眼睛”。“眼睛”看到以后,它有一个感觉,然后做一些直观的判断。但是这个直观的判断是为了干什么呢?是辅助后面它的第二个部分搜索的部分,你可以认为它的搜索的部分是它的逻辑。这两个部分到底在哪儿出错,其实是不容易分析的。

但是我们从人类怎么给它制造困难的角度,可以有两种影响AI的办法一是比如说你想办法让你的图象长得好像很像要输的样子,它可能就会受你诱导,这可以欺骗图象识别部分。第二部分就是说你让它的搜索树特别长。其实Google也考虑了这个问题,比如论文里提到某些情况它如果不做特殊的处理的话,它可能会随机下。比如它觉得胜率整体不高的情况下,

会想,盘面别的200、300个位置是不是也能下一下?它就不停地想这些东西。这就把它有用的搜索的时间给耗掉。

但是回到开始的话题,究竟哪个部分受到欺骗?现在还是不确定的。因为它还是两个东西相结合。它一旦合在一起以后,你没法儿真正把一个具体的问题定位在哪儿。此外还有其他可能的原因,比如它在之前可能没有碰到自己胜率很低过,但是在第87步以后,它突然发现李世石的胜率很高,自己的胜率很低,这个可能是它之前没有碰到过的情况,所以它就开始出现混乱。

PingWest:所以这牵扯到另外一个大家也是挺关心的问题,就是说深度学习在我们的印象中,一般人的参与是比较少的,大部分都是由机器自己执行。这样的话它可能产生一些BUG我们也不知道,如果它真正产生一些BUG,这个BUG出现了,我们也没有办法改变电脑内部已经学习完成的逻辑,这个时候应该怎么办呢?

周舒畅:首先深度学习还是有一些人能操控的参数。即便是电脑自动学习形成的参数,你也有可能用一些方法间接的影响它。

什么叫间接的影响呢?比如说你忽然发现一个AlphaGo在输棋的情况下,它下得很惨。这个时候你其实可以给他一些特殊的设定。比如说拿一个棋盘,忽然换了一个方式,让这个AlphaGo处于非常的劣势,比如说盲目的往上面多放几个子,让它处于劣势状态,然后再接着让另一个AlphaGo跟它下。这样的话就能产生这种不均衡的对局,用这些再去训练要跟李世石打比赛的AlphaGo。以前的AlphaGo你可以认为说之前一直赢棋,只打过顺风仗,没打过硬仗,你可以人为的让它打很多硬仗,然后可能第二天就是一个打过硬仗的AlphaGo,就不一样了。

PingWest:也就是说实际上,我们只能通过这种测试的方法才能知道它背后的逻辑是什么,但是人无法预料到所有的情况,那么人工智能推广出来以后会用在关键领域,比如它去用来作手术,如果那时候再出BUG,那不就可能会造成病人生命危险?

周舒畅:这要看不同的问题。现在是下棋的神经网络,AI它知道现在的任务是下棋。围棋的最终目标是赢棋,赢棋有一个要求,就是说要算的快,要搜的空间大。在策略上可能它不是很保守,可能是比较激进的。而且即便它下输了,也不是一个非常可怕的事情。但假如这个神经网络是控制直升飞机的呢?它就会用一个非常保守的策略兜底。这造成的结果肯定就会完全不同。

而且,如果你用神经网络做一件关键的事情,一般最后都会有一步叫做“跳到人工”。就是说我神经网络可能解决了99%的问题,但是有1%的问题我拿不准,比如识别犯罪嫌疑人,漏过的后果又很严重,那我可以进行一步,叫做“跳到人工”。让人工介入。这是在现实中的处理方法。

当然,这其实也无法完全避免所有的BUG,但是任何东西都是有比较的。比如说自动驾驶,使用了神经网络技术出事故了,是不是就是说神经网络不好呢?但大家忽略了,其实人可能更容易出错误,人会有各种情绪波动等等,更容易出错。所以你要对比用神经网络驾驶的车,和用人类驾驶的车的车祸率。我如果用了神经网络以后,把车祸率从人类驾驶在往下,就是人类驾驶的事故率往下砍了100倍,这个时候你说从统计上算,那以后就绝对应该不让人来开车,应该用一个深度学习的系统来开车了。实际上从数据上看,在一些情境里,神经网络技术本身的错误率的降低还是非常明显的。

PingWest:还有一个担心,会不会有人利用这样的BUG搞漏洞攻击,像李世石欺骗了AlphaGo一样?

周舒畅:这还是跟刚才说的一样,被人欺骗也是一种错误,人也会被人欺骗,所以要比的就是深度学习系统被一个人欺骗的概率和一个人被人欺骗的概率。你只要把这个比值搞好了,那这就是一个非常强的对深度学习系统的支持。

那么怎么减小这个漏洞?有一个一般规律:你的系统越复杂,容易被人找到漏洞的可能性就越大。所以现在很多的深度学习系统是非常简明的,有时候我想理解它都有困难,你要操纵它其实就更难了。除了这个以外,也可以在后端设计一些系统,让它的安全性进一步提高。

对神经网络本身来说还有一种传统的手段就是提高冗余度。比如说我一个神经网络可能出错,但是我有另一个神经网络,跟另一个长得不大一样,但是两个是预测同一个东西,当然两个可能不行,可能要三个。就是三个,然后互相之间投票,这样又能把出错的概率降低多少,降低多少个百分比。这可能是一个比较有意思的方向,就是利用深度学习本身的能力来提高这个安全性。

PingWest:按照您的说法好像就挺明白了。但是我觉得可能很多人担心,因为我们没有办法理解这个机器深度学习的过程,都没有办法理解这中间到底发生了什么,它是一个什么样的逻辑,这个学习过程,是真的无法去了解吗,真的是一个黑盒吗?

周舒畅:这种心理可以理解。好比你让一个人干一个事情,如果他最后就给你一个结果,别的什么都没有,这会让你很心虚,因为你不知道他怎么得到的。现在有很多研究,就是尽量把这个过程中的一些中间结果暴露出来,形成一系列的报告。这是一个趋势。

比如说我现在做了一个人脸识别系统,可以识别出这个人是谁。现在我觉得只有一个最后的结果不够。我要让深度学习系统给出一个置信度,然后我还可以让它给出更多的东西,比如这个人的性别、年龄。就相当于我让他识别一张李世石的照片,我不停在问它,可能学习系统会告诉你说,首先他是男的,他是大概几岁到几岁,另外一个长相像东亚人,比如说他的服装也是一个非常有用的信息。如果他不是李世石的话,他可能还是哪几个人,比如它又列出几个备选的人,它可以把每个备选的人的置信度都打出来。比如说李世石是0.8分是最高,后面可能也有一些人确实长得很像,也被列出来。如果所有小的东西都能对。那个系统就会可信的多。

PingWest:这个事情发生以后,咱们国内的人工智能和深度学习领域的人怎么看待这个事情?你们内部群里面会怎么讨论这个事情?

周舒畅:我们自己会有一个评估,这事在各方面都有里程碑的意义。第一个,19×19的棋盘有非常复杂的变化,它现在都能在这么复杂的变化上达到跟人脑相当,或者超过人脑的性能,这是让我们对深度学习系统的能力刷新了一下认识,可能认为它的潜力其实更大。

第二方面,其实深度学习里面,要能应用的话,有一个非常关键的事情,就是说你需要很多的训练数据。这次AlphaGo相当于又提供了一种思路。比如说我们能不能像创造这种自己跟自己下棋的系统,获得大量的数据,那是一个非常有意思的方向。

第三点是这样,我们一般认为搜索这件事情是跟现在深度学习所做的事儿是比较独立的。为什么呢?深度学习意思就是说我给定一个输入,然后你输出一个输出,但是它一般不会遍历各种情况。特别是像下棋的话,你是按照规则来遍历某些情况,但不是所有的情况都要试。所以以往在这种情况下使用神经网络,也有人尝试,但是并没有非常明显的解决方法。现在AlphaGo这次的成功,实际证明了搜索和深度学习是可以结合的,这就把各种性能又往前推进一步。

PingWest:所以旷视现在的状况怎么样?您从事的领域又发展如何呢?

周舒畅:我们公司是以人脸相关的应用为一大块,现在我所在的组从事的是图像相关的,除了人脸以外的物品。比如我们现在重头是把自然场景,比如你现在走在街上看到的那些文字信息给提取出来,而且要识别准确。我们去年的时候应该在几个榜上排到世界第一,现在状况是这样,我们现在正在加紧把这个产品化,应用到各个领域。

PingWest:这个跟传统我们熟知的OCR的区别是什么?

周舒畅:一般的OCR是这样:它只能提供一个纸张上面标准的印刷字。它必须有很多条件限制,比如平整度,光线等等。但是日常生活没有这么美好的事,比如你戴着眼镜,哪里看到字就处理到哪里。你想外界环境多复杂?可能会有雾霾,可能有一个树挡在你和字之间,这个时候你怎么把这些情况处理掉,最后得到一个对人有用的信息?这就是完全全新的挑战。我们认为,自然场景里面的文字识别,相当于是文字识别里面的王冠了。

当然我们也在一步一步进行,目前一些技术已经成熟了,比如说我们可以处理不用在扫描仪里面的身份证、证件、医疗单据。我们现在这几个相对更简单的东西,已经是产品,已经整合在我们的“在线身份验证”的服务中了。

PingWest:但字跟老虎什么的不同,这是个很模糊的符号,有时候我们觉得像字的都不一定是字,它可能会有各种各样的书写方式,有各种字体,像这样的问题是怎么解决的呢?

周舒畅:深度学习系统的意义就在这儿。再比如你拍了一张照片,上面有一个北字,你回去就拿这一张照片去给它学习,然后它以后就能认识这个北字。但是你在训练它的时候不但可以把源头给它,还可以把北扭一扭、转一转给它,这样的话如果深度学习系统能够在这些情况也认出了北,你可以认为它就学到了一个叫做不变性。它就认为就是说,一个字可能左转15度、右转15度,可能还是这个字。到了最后,神经网络它就会有处理这些各种畸变、噪声、遮挡、污损等等这些的能力。

PingWest:作为中国人也真的挺难的,因为中国几千个汉字,可能比26个字母要难学得多了,每一个都要弄?

周舒畅:是,所以我们做的事情可能,我们做的事情Google也没有完全解决。这就是非常有意思的地方,这是我们的竞争力程度核心,就是深度学习的几个引擎。一个是计算能力,一个是训练数据,还有一个是模型的架构,这三个角度你都可以着力,把这个问题给往前推进一步。

PingWest:那么除了这个部分以外,旷视今年还会推出哪些产品?

周舒畅:今年旷视的发展主要会集中在两点,第一点就是基础人工智能平台,也就是我们原有Face++平台下面更基础的平台,我们有一个测试对比,我们的性能比Google的Tensorflow高接近5倍的性能  第二点就是我们的智能技术会更多的与智能机器人、智能硬件结合,去年我们推出了第一款用于安防的智能摄像头,今年将会有更多这样的产品推出,而植入机器人的尝试也从去年就开始,预计将会在第四季度让大家看到第一个搭载机器视觉的工业机器人。

转载本站任何文章请注明:转载至神刀安全网,谢谢神刀安全网 » 未来的人工智能会不会像 AlphaGo 一样“抽风”?我们找了位专家聊了聊

分享到:更多 ()

评论 抢沙发

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址
分享按钮