神刀安全网

代码不再重要,未来我们要像训狗一样训练计算机

代码不再重要,未来我们要像训狗一样训练计算机

钛媒体注:过去,程序员就像是上帝,制定计算机系统运行的律法。随着机器学习的兴起,计算机正在脱离人们的控制。工程师们永远也无法确切搞清楚计算机是如何通过机器学习完成任务的。神经网络和人们的大脑一样,像个“黑箱”,难以捉摸,这些“黑箱”正在日益接管我们的数字生活。编程将变得不再重要,未来,我们将不再关注行为背后的底层代码,而是专注于行为本身,我们要学着像巴甫洛夫训练狗的条件反射一样训练计算机。

本文由钛媒体编译自 《连线》封面文章 ,编译/张远。

电脑发明之前,大多数实验心理学家都认为大脑是一个未知的黑箱。你可以通过“摇铃-流口水”来分析动物的行为——但是思想、记忆和情感该怎么观察?这些东西深不可测又难以捉摸,科学也无能为力。所以,这些自称行为主义者的科学家把自己的工作定义为:刺激与回应,反馈与强化,摇铃与唾液。他们放弃对理解大脑运作原理的尝试。这种思想统治了学界40多年。

1950年代中期,一群有反叛精神的心理学家、语言学家和信息科学家以及早期的人工智能研究者探索出一种完全不同的思维概念。他们认为,人不仅仅是一系列应变反应的集合。他们吸收信息、处理信息、依此行动。他们有读写系统、叙事系统和回忆机制。这一切都通过一种有逻辑、有条理的句法来实现。大脑完全不是一个黑箱,而更像一台电脑。

这场“认知革命”虽然起于青萍之末,但是随着计算机成为美国心理学实验室的标准配置,渐渐地为更多的人所知。1970年代末,认知心理学已经压倒了行为心理学,当谈及意识时,人们开始使用一种全新的语言。心理学家们开始把思维比作程序,普通人也习惯了说向大脑“存储”信息,而商界精英为智力“带宽”和处理能力跟不上工作需要而苦恼。

同样的故事一再上演。当数字革命已经在日常生活中无孔不入,它也在渗透进我们的语言,渗透进我们对于事物基本运行规律的理解。技术一向如此。在文艺复兴运动中,牛顿和笛卡尔启发人们将宇宙想象成一座精密的钟表。工业革命中,宇宙变成了一台活塞机。现在,它成了一台电脑。这种理论将给人类赋予更多的自主权,如果世界是一台电脑,那么它就可以被编程。

代码不再重要,未来我们要像训狗一样训练计算机

软件“吞噬”世界

代码是符合逻辑的。代码是可破解的。代码命中注定。这是数字时代生活的核心信条,也是自我实现的预言。

按照风险投资家Marc Andreessen的说法:软件正在“吞噬”世界,周围无处不在的机器正在把我们的行为、思想、情感转化为数据——供挥舞着代码的程序员大军操纵的原材料。似乎,我们的生活遵循一连串基本的准则,可以被发现、探索、优化,甚至可以被重新编写。互联网公司通过代码去了解我们最私密的联系;Facebook的扎克伯格走得更远,他认为”在人类关系中或许有一种基本的数学定律,决定着我们是谁,我们关心什么。“

2013年,在进行了10年人类基因破译工作之后,生物学家克Craig Venter 宣布:他已经着手编为自己编写代码以生成人造器官。“再清楚不过了,地球上我们已知的所有生物细胞都不过是DNA软件驱动的生物机器。”克雷格·文特尔说。甚至,自助类书籍也在声称你可以破解(hack)自己的“源代码”,重新编程(reprogram)自己的情感生活、睡眠周期和消费习惯。

如今,编程技能已经不仅仅是一项技能,更是一种语言,掌握了这门语言,你就成了掌握世界机密的“内部人士”。“控制了代码,就控制了世界。”未来学家Marc Goodman这样写道。(在《商业周刊》上,Paul Ford说的更谨慎一些:“就算程序员不掌控世界,他们也在掌控那些掌控世界的东西。”)

但是,无论你喜欢与否——不管你是编程阶层的一员还是连手机闹钟设置都搞不定的普通人——不要对此习以为常。 世界这台“机器”正在开始说另一种语言,即使是最顶尖的程序员也不一定能全弄明白。

代码不再重要,未来我们要像训狗一样训练计算机

机器正在开始自己“学习”

在过去数年间,硅谷最大的科技公司都在拼命追求一种被称之为机器学习的计算方式。传统的编程模式下,工程师写好明确的、分步运行的指示,计算机只需执行。在机器学习模式下,工程师不会给计算器编写运行指示,他们会训练计算机。比如,如果你想教神经网络去识别一只猫,不用告诉它要去找胡须、耳朵、毛和眼睛,只需要给它看成千上万幅猫的照片,它最终自己会找到办法。如果它一再把狐狸错认为猫,你不需要重写代码,只需要继续调教。

这种方法并不新鲜——已经存在了几十年——但直到最近才变得极其强大,一部分归因于深度神经网络的异军突起,大规模的分布计算系统模拟大脑神经元的多层连接。无论你是否意识到,我们很多的网络活动背后都有机器学习的影子。 Facebook利用它来决定哪条新闻出现在你的时间线上,Google图片用它来做面部识别。微软的Skype Translator利用机器学习把演讲实时转换成不同的语言。

自动驾驶汽车依靠机器学习来避免事故。甚至,Google搜索引擎这座由人工规则建立起来的“大厦”也开始仰仗这些深度神经网络。2月份,Google用机器学习专家John Giannandrea替换掉了多年以来的搜索部门负责人,还开始启动一个针对工程师的“新技能”再培训项目。“通过培养学习机制,我们不一定非要去编写规则了。”Giannandrea告诉记者。

代码不再重要,未来我们要像训狗一样训练计算机

和大脑一样,神经网络也是一个黑箱

但是,这就是问题所在: 工程师们永远也无法确切搞清楚计算机是如何通过机器学习完成任务的。神经网络的运行很大程度上是不透明的,难以捉摸。换句话说,这是个黑箱。这些黑箱正在日益接管我们的数字生活。 不仅在改变我们与科技的关系——还在改变我们对于自我、世界以及人类在世界中的位置的认识。

过去,程序员就像是上帝,制定计算机系统运行的律法;现在,他们变成了计算机的父母或训狗师。无论是父母还是训狗师都会告诉你,这是一种更为神秘的关系。 Android的联合发明人Andy Rubin是个积习成癖的发明家和程序员,硅谷人尽皆知他的办公室和家中到处都是机器人,他亲自给它们编程。“我很小的时候就对电脑科学着了迷,因为在计算机的世界我可以忘记自己。它是一块干净的石板,一块空白的画布,我可以从无到有地创造。“他说,”多年以来,我对这个自己乐在其中的世界全权掌控。”

如今,这个世界已经走到了尽头。Rubin为机器学习的崛起而激动欢呼——他的新公司Playground Global专门投资机器学习领域的创业公司,在智能设备的普及浪潮中保持领先,但这也会让他感到些许难过。因为机器学习改变了工程师存在的意义。

代码不再重要,未来我们要像训狗一样训练计算机

用于语音识别的听觉模拟神经网络

“人们不会再逐行写代码了,当一个神经网络学会了语音识别,程序员并不能深入内部去看看这是怎么发生的,就像你无法切开大脑看看自己在想什么。”Rubin说。当程序员窥视深度神经网络的内部,他们看到的只是一团迷雾:海量多层次的微积分问题——由数十亿个数据点持续不断产生的连接——产生着对世界的猜想。

这并不是人们想象中的人工智能的运行方式。直到数年之前,主流的人工智能研究者还以为只要为一台机器灌输正确的逻辑,就能创造智能。只要编写足够多的规则,我们最终就能创造一套精密到可以理解世界的系统。早期的机器学习拥护者被忽视甚至遭到诋毁,他们更倾向于给电脑提供足够多的数据,让它们自己得出结论。多年之间,计算机的运算能力都不足以证明这种方法的价值,所以争论变成了一场哲学思辨。

“大部分争论都建立在关于世界运行与大脑运转的顽固信仰上,”Google无人驾驶汽车之父、斯坦福人工智能教授Sebastian Thru说。“神经网络没有符号,也没有规则,只有数字,这让很多人望之却步。”

一种无法解析的机器语言带来的不仅是哲学观念上的冲击。过去20年间,学习编程已经成为一条无比坚实可靠的职业道路。 但是一个由彼此神经连接的深度学习机器主宰的世界需要另一种劳动者。 关于人工智能令各种技能过时的担忧已经甚嚣尘上,程序员很快就能尝到自己酿下的“苦果”的滋味。

“我今天早上刚刚和别人谈过这个话题。”当我问到这种转变时,科技名流Tim O’Reilly 说。“当这一代的孩子成长起来,编程工作将会和今天的大为不同。”

当然,传统的编程并不会彻底消失——O’Reilly预计很长一段时间内我们还是需要程序员——但是数量将大为减少,而且 编程将会变成一种“元技能(meta skill)”,一种为机器学习创造“脚手架”的手段。就像量子力学的发现并未让牛顿力学失效,编程依旧是探索世界的一种有力工具。但是要快速推进特定的功能,机器学习将接管大部分工作。

当然,还是要有人来训练这些系统。但是,至少在今天,这还是一种稀缺的技能。这种工作需要对数学有高层次的领悟,同时对于“有来有往”的教学技巧有一种直觉。“使这些系统达到最优效果的方法差不多是一门艺术”,Google  Deepmind团队负责人Demis Hassabis说。“世界上只有寥寥数百人能出色地完成这件事。”

但即使是这一小撮人也足够在数年之间改变整个科技行业。

不管这样的转变对于人类职业有何影响,它对文化造成的冲击将会更大。人工编程软件的兴起引发了对于程序员的宗教式崇拜,一种观念大行其道:人类的经验最终可以浓缩成一系列可以理解的指令。而如今,机器学习把钟摆拨向了相反的方向。宇宙运行的“代码”可能在人们的理解之外。比如, Google在欧洲正面临反托拉斯调查,被指控对搜索结果施加过度影响。这项指控很难被证明,因为就连Google自己的工程师都没法说清楚搜索算法是如何工作的。

这早已不是新鲜事,即使是简单的算法也会产生意想不到的新行为——这种观念可以追溯到噪音理论和随机数生成器。在过去几年间,随着计算网络日益交织,功能日趋复杂,程序变得越来越像一股外星力量,机器中的幽灵变得越发难以捉摸、不受控制。飞机无故着陆,股市出现看似不可避免的极速暴跌,还有轮流停电事故。

这些“看不见的力量”让科学家Danny Hillis公开宣称文明时代——我们数百年来对于逻辑、决定论、人定胜天的信仰——的终结。“随着我们创造的技术和机构日益复杂,我们和它们之间的关系已经改变,不再是它们的主人,而要学着跟它们讨价还价,劝诱、指引它们达成我们的目标。机器学习的崛起是这段旅程的最新一章,也可能是最后一章。”

代码不再重要,未来我们要像训狗一样训练计算机

Google图片将两名黑人的照片识别为“大猩猩”

后果可能会相当恐怖。毕竟,编程技能还是普通人可以学习和掌握的。程序员毕竟还是人类。如今,技术精英群体的规模正在缩小,他们下达的指令正在不断减少,越来越间接。那些制造出这些东西的公司发现它们的行为很难控制。去年, Google的图片识别引擎开始把黑人打上大猩猩的标签,它不得不紧急道歉,补救措施的第一步是阻止系统为任何东西贴上大猩猩的标签。

“这一切都预示着一个我们失去对机器控制权的时代的到来。人们可以想象科技在金融市场上智胜人类,逃离人类领袖的操纵,甚至发明人类无法理解的武器。”史蒂芬霍金的这些话得到了埃隆·马斯克 和比尔盖茨等人的响应。“人工智能的短期影响取决于它操控在谁的手中,长期后果取决于能否被掌控。”

但是不必惊慌失措,这不代表天网的降临。我们只是要学习如何与新一代技术合作共事。工程师们正在想法设法让深度学习系统“引擎盖”下的运作变得可视化。 即使我们终究没法完全弄懂它们是如何”思考“的,并不意味着我们在它们面前无能为力。未来,我们将不再关注行为背后的底层代码,而是专注于行为本身。我们用于训练机器的数据将比代码更重要。

代码不再重要,未来我们要像训狗一样训练计算机

巴甫洛夫的条件反射实验

如果这一切似曾相识,那是因为这很像20世纪的行为主义。实际上,训练机器学习算法的过程经常会被与20世纪初那些伟大的行为主义实验相提并论。巴甫洛夫并不需要深入理解饥饿的原理,只需要一再重复一系列动作就可以激发狗分泌唾液。他一次又一次地提供数据,直到代码自己重新编程。

长期来看,机器学习将会使技术更加民主化。你今天不需要知道 html 就可以搭建一个网站,同样的,你最终也不需要取得博士学位才能让机器学习的超强能力为己所用。编程不再是程序员们一系列晦涩语言的专属地盘,以后,任何人都可以编程。

在计算机发展史的大部分时间里,我们对机器的原理无所不知。我们编写代码,机器负责表达,这种世界观虽然蕴含着“可塑性”,但也代表着一种基于规则的决定论,即认为事物是它们背后的规则的产物。机器学习的哲学则相反,不只是代码决定行为,行为也决定了代码。机器是世界的产物。

最终,我们既会欣赏逐行写代码的力量,也要通过机器学习算法来调整它。很可能生物学家已经开始动手了。Crispr 这样的基因编程专家将会赋予基因和软件程序员一样的代码操纵能力。但后生学理论表明基因并非一系列不可更改的程序设定,而是根据周围环境和宿主经历而改变的一组动态开关。我们体内的代码并不是独立于物理世界,而是深受它的影响,也会被深深改变。Venter可能会深信细胞是DNA软件驱动的机器,但是后生学家Steve Cole有一种不同的表达:细胞是一种把将生活经历转化为生物现象的机器。

如今,在艾伦图灵设计出“图灵机”80年后,计算机成了将体验转化成技术的设备。几十年来,我们都在寻找可以解释、优化我们生活体验的代码。但是我们手中的机器不会再遂我们的愿了。我们和机器之间将会有一种更为复杂、然而最终会让我们获益更多的关系。我们不再给它们下指令,而是成为它们的父母。(本文首发钛媒体,编译/张远)

转载本站任何文章请注明:转载至神刀安全网,谢谢神刀安全网 » 代码不再重要,未来我们要像训狗一样训练计算机

分享到:更多 ()

评论 抢沙发

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址