神刀安全网

关于人工智能的三个误解

(本文首发于 破土网 )

刚刚过去的一个星期,围棋受到了前所未有的关注。韩国棋手李世乭与Google的人工智能AlphaGo的五番棋进展到了第四局,广大棋迷乃至全人类经历了由妄自尊大、到灰心丧气、到正视自我、再到重燃希望的大起大落。夸张一点,甚至可以说有了人工智能这面镜子才让人类照出了完整的自我。

关于人工智能的三个误解

不过,站在这个(可能是)历史的拐点上,很多人还未理解到底像AlphaGo这样的人工智能到底是什么东西。有人担心人工智能马上就要开始像“天网”一样统治人类,也有人认为人工智能无非是榔头钉锤一样的工具。笔者虽然不是专家,希望凭多年在IT行业里工作的积累,澄清一些对于人工智能的常见误解,帮助读者更好地理解人工智能。

误解1:人工智能已经有智慧

围棋能下赢九段高手,这还不叫有智慧吗?

然而并不……AlphaGo使用的技术在过去一段时间已经被广泛讨论了,它最核心的技术叫做“ 深度学习 ”,Wikipedia这样解释这个词:

深度学习(英语:deep learning)是机器学习的一个分支,它基于试图使用包含复杂 结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的一系列算法。

听起来非常高冷,过度简化地说,这就是一种基于历史数据进行模式匹配、从而预测未来的技术。“学习”这个词很容易让人觉得人工智能可以像小动物甚至小孩一样,看见什么就学什么。其实人工智能的“学习”,准确说应该叫“训练”。可以举个简单的例子:如果你拿一大堆北京的城市风景图片输入给一个程序,并且把对比度低于某个值的图片标记为“雾霾”,经过比较大量(可能几十张图片)的训练之后,这个程序就能比较准确地判断今天是不是又一个雾霾天。

AlphaGo当然比这个“雾霾人工智能”复杂得多,但根本的原理是相似的。能训练哪个领域、能看什么历史数据、期望达成什么结果,这都是程序员编程指定的。比如今天的AlphaGo就只能下围棋,你要是把它连上五子棋盘,星小目开局在五子棋规则下就是找死……

在不远的将来,我们很可能会看到AlphaGo(或者它的更高级版本)被用于处理各种各样不同的问题。但就像今天IBM的Watson被用在医学、法律、零售等很多领域一样,即使是同一个人工智能程序,它的每个实例仍然只会被用于处理一种问题。只会处理一种特定问题的人工智能,当然不能被认为“有智慧”。

误解2:人工智能一定受控于人类

既然人工智能没有智慧,它就不会有自己的想法,它做的一举一动都应该是受控于人类的对吧?在AlphaGo与李世乭开战前,一位“人工智能学家”就提出了这样的意见,要求Google公开AlphaGo总结出的“围棋规律”。既然是人造出来的工具,又没有自己的智慧,没道理它会掌握人理解不了的知识,对吧?

可惜,又要让大家失望了。机器学习本质上可以看作一种优胜劣汰的达尔文主义:计算机只管筛选有效的判断、淘汰无效的判断,逐渐提高统计意义上预测的成功率。至于这个预测为什么“正确”,计算机既没有意愿、也没有能力回答。机器学习解决的是“相关性”(correlation)的问题,而不是“因果性”(causality)的问题。这也就是说,像AlphaGo这样的人工智能可能有一大堆 知识 使它能下九段水平的围棋,但这些知识背后并没有一个(或者多个) 理论体系 能把它们串起来,所以人类不一定能理解为什么这些知识有效。

在赢了李世乭第二盘棋以后,棋迷们开始认真思考一个问题: AlphaGo的棋力究竟有多强?是否已经接近(甚至达到)了“围棋上帝”的水平?而在赢了第三盘之后,一些棋迷开始细思恐极:先不说AlphaGo的水平有多高,如果从此以后人类再也无法接近它的水平,我们是否还能理解AlphaGo下出的棋?AlphaGo朝着围棋上帝一路狂奔,而人类连它的脚印都找不到,这才是最可怕的情况。

幸好,今天李世乭用一场胜利向我们证明:AlphaGo的水平虽高,也还是人类能理解、能达到的高水平。然而人工智能绝尘而去这种风险仍然存在。当人工智能可以针对某一领域的问题做出人类不可替代的决策,而人类又完全无法理解这个决策背后的理由,我们如何能说人类“控制”了人工智能?这个工具,可不一定是永远受控于人类的。

误解3:人工智能不会害人

既然人工智能没有智慧,它自然就是跟榔头钉锤一样的工具。工具从来都是为人服务的,就算人工智能有了人类理解不了的某种知识,那也就跟人类无法跟火车头比力气一样,正常。归根到底,人工智能有机器人三定律管着呢,不可能像天网或者Matrix那样来统治人类,更不可能害人类,对吧?

首先,咱们来聊聊机器人三定律。这三条定律是这么说的:

一 机器人不得伤害人类,或因不作为使人类受到伤害。

二 除非违背第一定律,机器人必须服从人类的命令。

三 除非违背第一及第二定律,机器人必须保护自己。

然后呢,亮点在于……这三条定律 从!来!没!有!实!施!过!

机器人三定律是且仅是科幻小说中的设定。现实世界里的所有机器人(以及人工智能)从来没有被“植入”过三定律。实际上,严肃的人工智能研究者认为 三定律根本行不通 。在真实的世界里,机器人(以及人工智能)只会忠实其设计者设定的指令。跟李世乭下一盘围棋,还是操作无人机杀死阿富汗的无辜平民,对于计算机来说根本没有任何区别,有区别的只是背后下达指令的人。

所以,即使从一个非常实用的意义上,是的,人工智能当然有可能害人,因为控制这些人工智能的人可能有动机害人。富士康可以用机器人取代工人,在不远的将来机器学习技术也可能取代众多白领的工作。如果这些失业的人没有基本的社会保障,是的,他们就是机器的受害者。人工智能可以害人,正如刀子可以杀人一样。

在一个哲学的意义上,人工智能甚至有可能对整个人类造成危害。布林约尔松在《 与机器赛跑 》中讲到,如果使用得当,计算机器可以扩展人类的思维边界、帮助人类达到前所未有的思想高度。试想一下,如果下一次的围棋比赛是李世乭和柯洁分别与人工智能组队竞赛,那将把围棋推到何种高度?但如果使用不当,计算机器也可以使人类中的一大部分失去一切竞争力、甚至失去生而为人的尊严。正如笔者在另一篇文章中所说,掌握必要知识与技能的人与机器协作如鱼得水,不具备这些知识与技能的人则连出卖劳动力的机会都被剥夺。教育的不均衡与不平等加上人工智能的普遍使用,会无可逆转地加剧阶级分裂和阶级固化。这种或许听来耸人听闻的未来图景,需要我们所有人提起足够的重视。

转载本站任何文章请注明:转载至神刀安全网,谢谢神刀安全网 » 关于人工智能的三个误解

分享到:更多 ()

评论 抢沙发

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址
分享按钮