神刀安全网

代码的终结,我们很快就能像调教狗一样来调教我们的计算机

在发明计算机之前,大部分的实验心理学家都认为大脑是一个不可知的黑盒子。你可以分析一个实验对象的行为,例如,一旦听到铃铛想起,狗便会分泌唾液。但是思想、记忆和情绪这些东西该如何分析呢?这些东西比较神秘莫测,让人难以琢磨,超越了科学研究的范畴。所以这些行为学家们将他们的研究范围限定在刺激和反应、反馈和强化、铃铛声和分泌唾液的关系上面,他们没有去尝试了解心灵意识的内部工作机制,这种情况已经持续了大概 40年 的时间。

到了 1950年 代中期,一群不按传统规则办事的心理学家、语言学家、信息理论家和早期的人工智能研究者提出了一个全然不同心理概念。在他们看来,人不仅仅是条件反射的集成,人是会吸收信息、处理信息并根据处理结果采取行动的。人拥有专门的书写记忆、储存记忆和调取记忆的系统,这些系统是通过一种有逻辑的形式化语法运转的。在这些人看来,大脑并不是一个黑盒子,它更像是一台计算机。

这种所谓的认知革命是慢慢开始的,然而随着计算机成为全国所有心理学实验室的标准配备之后,认知心理学获得了更加广泛的认可。到 1970年 代后期,认知心理学就已经颠覆了行为主义学,认知心理学使用一套全新的语言来描述心理活动。心理学家开始将思想看作程序,大众也开始谈论将东西储存在记忆银行里之类的东西。

谁控制代码谁就能控制世界?

随着数字革命逐渐渗透到人们日常生活中方方面面,它也开始渗入到我们的语言以及我们对事物工作机制最基本的看法里。科技做的就是这样的事情。在启蒙运动时期,牛顿和笛卡尔鼓励人们将宇宙想象成一个精美的钟表。到了工业时代,激起人们新认知的是带活塞的机器。到了今天,计算机开始从根本上改变人的认知。如果世界是一台计算机,那么这个世界就是可以被编程的。

代码具有逻辑的,代码是可以被控制的,代码就是命运。这些理念是数字时代生活的核心原则。随着软件逐渐吞噬着整个世界,就好比著名的风险资本家 Marc Andreessen 之前说过的那样,我们现在正生活在机器的海洋里,机器将我们的行为、想法和情绪转变成了数据,数据则是用来给工程师进行编码操控的原材料。我们现在已经将生活看成了一种被一系列指令控制的有规则的东西,这些指令可以被发现、利用、优化甚至重写。公司用代码来理解我们最密切的联系,Facebook 的 Mark Zuckerberg 甚至猜想在人类关系里可能存在一种基本的数学定律,这个定律控制着我们所关心的人和事的平衡。2013年,著名的基因科学家 Craig Venter 曾宣称,在人类基因组解码的 10年 后,他就已经开始编写能够让他创造合成生物的代码了。“在这个星球上,我们知道的所有活细胞都是 DNA 软件驱动的生物机器。” 甚至一些自助文学也阐明这样了这样一个观点,即你是可以控制自己的源代码的,你可以对你的恋爱生活、睡眠习惯和消费习惯重新进行编程。

在如今的这个世界上,编程的能力已不仅仅是一个理想的技能,它已经成为了一种语言。懂得这门语言,意味着你就获得了权利杠杆。未来学家 Marc Goodman 曾这样说过:“如果你控制了代码,你就控制了整个世界。” 相比之下,Paul Ford 的用词稍微委婉一些:“即使控制代码的人没能控制世界,他们也控制了可以控制世界的东西。”

不管是你喜欢还是讨厌这种状态,也不管你懂不懂编码,都请你不要习惯它。我们的机器现在开始说一种完全不同的语言了,即使是最好的程序员也无法完全理解这种新语言。

机器学习的崛起

在过去几年时间里,硅谷的很多大科技公司已经开始研发一种称为 “机器学习” 的全新的计算方法。传统的编程里,程序员写出一步步的明确指令去让计算机执行。但是在机器学习里,程序员将不再为计算机编写指令,而是会训练计算机。举个例子,如果你想教会神经网络能够识别猫,你不是告诉它通过胡子、耳朵、毛和眼睛去识别,而是通过简单地给它展示成千上万张猫的照片,神经网络通过这种方式最终就能识别猫。如果它错误地将狐狸归为猫的话,你不需要重写代码,只需继续训练它就行。

这种方法其实并不是最新新出现的,其实它已经存在几十年的时间了,只不过最近才慢慢变得强大起来,这主要得益于深度神经网络的崛起。深度神经网络是一种模仿大脑神经元多层连接的大规模分布式计算系统。不管你有没有意识到,人类众多的网上活动的背后都是由机器学习驱动的,例如,Facebook 用机器学习决定哪些内容会出现在你的信息流中,Google Photo 用它来进行人脸识别,微软 Skype Translator 的背后也是机器学习来驱动的,它能够将语音实时转换成不同的语言。就连 Google 的搜索引擎也开始越来越依赖这些深度神经网络。此外,无人驾驶汽车也开始利用机器学习来避免发生交通事故。今年2月 份,Google 开始任命机器学习专家 John Giannadrea 作为新的搜索引擎主管。“通过打造深度学习系统,我们就不用自己写这些搜索规则了。” Giannadrea 这样说道。

不过这里有一个问题,在运用了机器学习后,工程师将无法准确了解计算机是如何完成任务的。神经网络的运行在很大程度上都是不透明的,也是高深莫测的。换句话说,它是一个黑盒子。随着这些黑盒子完成我们越来越多的日常数字任务,它不仅会改变我们与技术的关系,它还会改变我们看待自己、看待世界以及我们在世界中所处的位置的方式。

一个时代的终结

按照传统的观点,程序员就好比是上帝,他们制定了控制计算系统的程序规则,如今,程序员则更像是家长或动物训练师。正如任何家长或动物训练师可能会告诉你的那样,这是一种更加神秘的关系。

Andy Rubin 是一位经验特别丰富的程序员,他参与联合创建了 Android 操作系统。熟悉他的人都知道,他在办公的地方和家里放了很多各种各样的机器人,并亲自为这些机器人进行编程。 “我在非常小的时候就开始接触了计算机科学,热切非常喜欢它,甚至可以完全沉迷在计算机的世界里。它就像是一块空画布,我可以在上面从无到有地进行各种创造。在过去这些年里,它给我一种能够掌控世界的感觉。” Rubin 这样说道。

Rubin 说,如今,原来的那个世界即将结束了。Rubin 对机器学习的兴起充满了激情。他现在自己创办的新项目 Playground Global 主要就是投资机器学习领域的创业公司,并将自己定位为智能设备普及的领航者,不过这却让他感到有些失落,因为机器学习已经改变了他作为一名工程师的含义。

“人们不再线性地写程序了。在神经网络学会如何识别语音之后,程序员无法深入内部,看这一切究竟是如何发生的。它就像你的大脑,你肯定不能将你的头砍下来看大脑究竟在想什么。” Rubin 这样说道。如果工程师一定要深入探究深度神经网络的话,他们看到的将是一个数学的海洋:一个巨大的、多层的微积分问题,通过不断推导数十亿数据点之间的关系,从而得出对世界的一个猜测。

人工智能本来不应该按照这种方式工作的。就在几年前,有一些主流的人工智能研究者还这样认为,为了创造智能,我们必须在机器里输入正确的逻辑。在编写了足够多的规则之后,我们便能最终创建一个足够成熟的系统来了解这个世界。他们大都忽视甚至诋毁一些早期机器学习的支持者。这些早期的支持者认为应该给机器输入数据,直到它们自己能够得出结论。在过去多年时间里,计算机一直没能发展地足够强大去真正证明这两种方法究竟哪种方法好,这个争论已经发展成一个哲学上的争论。Google 无人驾驶汽车研发人员及前斯坦福大学人工智能教授 Sebastian Thrun 表示:“大部分争论都基于这样一种坚定的信仰:这个世界该怎么组织起来,大脑是如何运行的。神经网络没有规则或符号,有的只是数字,这无疑疏远了很多人。”

对就业市场的影响

一种不可分析的机器语言的启示不仅是一种哲学方面的启示。在过去 20年 里,学习编程成了未来能找到工作的最保险的方式之一,这也导致很多家长开始为自己的孩子报各种编程培训班。但是一个神经网络连接的深度学习机器的世界所需要的是一种完全不同的工种。分析师现在已经开始担心人工智能可能会对就业市场产生的影响,这和新机器会淘汰一些陈旧技能是一样的道理。程序员们可能很快就会尝到内中滋味了。

科技大佬 Tim O’Reilly 谈论这种转变时表示,传统的编码工作是不会完全消失的,他还预测,在未来的很长一段时间内,我们将依然需要程序员,但所需求的程序员的数量可能会减少,编程在未来将会变成一项元技能。Allen 人工智能研究所的 CEO Oren Etzioni 表示,机器学习需要在一个 “骨架” 内运行,创建这种 “骨架” 需要编程。这和 “牛顿力学不会因为量子力学的发现而被排挤” 是一样的道理。编程将依然是探索世界的强大工具,不过驱动具体功能方面的工作则主要由机器学习来完成。

当然了,人类依然需要训练这些系统。但至少目前看来,训练的工作将是一个非常稀有的技能,因为这项工作既需要对数学有非常深度的掌握,也需要对教学法有非常好的直觉。Google 的 DeepMind 人工智能团队的主管 Demis Hassabis 曾表示:“这就像是一种艺术形式,它能从这些系统中获取最好的东西。全世界其实只有几百人能够很好地完成这项工作。” 然而如此少的人却在过去短短几年的时间里彻底改变了这个技术行业。

这种转变给就业市场带来了很大的改变,不过它对文化的影响力更大。如果人类编写软件的崛起导致了人们开始推崇工程师,让大家认为人类体验最终可以被简化为一系列可理解的指令,机器学习则会导致恰好相反的结果。运行宇宙的代码可能会藐视人类的分析。例如,Google 目前正在欧洲面临反垄断调查,认为 Google 对搜索的结果施加了不正当的影响。如果连 Google 公司自己的工程师都搞不清搜索算法究竟是如何运行的时候,这种指控将很难得到证实。

这类不确定性的爆发其实由来已久。即便是非常简单的算法也能产生无法预测的紧急突发行为,这早已不是什么新鲜事了。这一切可以追溯到混沌理论和随机数发生器。在过去多年里,随着网络变得越来越错综交错,它们的功能也随之变得越来越复杂,这让代码看起来就像是一种外星神力,隐藏在机器里的幽灵也更加让人捉摸不定和无法控制。

这些力量让技术专家 Danny Hillis 宣布启蒙时代已经终结,我们过去数百年对逻辑性、确定性和控制自然的信念也随之终结。Hillis 表示,我们现在正在走进他称为的 “纠缠时代”(age of Entanglement)。Hillis 在《Journal of Design and Science》这本杂志上这样说道:“随着我们的技术和制度创新变得越来越复杂,我们和它们的关系也随之发生了改变。我们将不再是我们创造的东西的主人,我们已经学会了与他们讨价还价,以甜言蜜语哄骗和引导它们朝着我们总体的目标方向前进。我们创造了我们自己的丛林,不过它也有它自己的生命。” 机器学习的崛起是这个旅程的最新甚至是最后一步。

这听起来非常令人恐惧。毕竟编程是一个普通人在参加了培训班后都能掌握的一项技能。程序员至少依然是人类。如今,科技精英人群规模开始变小了,他们对于自己创造的东西的控制力也开始慢慢减弱。打造机器学习的公司发现它们是非常难以控制的。去年夏天,Google 的图片识别引擎将黑人图片误认为是大猩猩,Google 马上出面道歉。为了解决这个问题,Google 采取的第一个措施竟然是:让这个识别系统不要把任何东西标记为大猩猩。

部分人开始认为我们已经进入了这样的时代:人类已经丧失了对机器所拥有的权威。 Stephen Hawking 这样写道:“人们可以想象,技术比金融市场更聪明,比人类研究者更擅于发明创造,比人类领导者更擅于操纵与控制,它们甚至会研制出一些人类无法理解的武器。虽然人工智能的短期影响依赖于控制它的人,它的长期影响则决定于它是否能够被控制。”

但也不用太过恐惧。我们现在还在学习与新技术互动的规则。现在工程师们已经开始想办法如何让深度学习系统内部工作机制可视化。不过即使我们永远不能完全理解这些这些新机器的思考方式,这也并非意味着我们在它们面前是无能为力的。我们未来不会过于关注它们行为的内在的根源,我们会更多地学习将注意力集中在行为本身上面。相比代码而言,我们用来训练它的数据更为重要。

如果你觉得这看听起来有点熟,这是因为它和 20 世纪的行为主义非常像。事实上,训练机器学习算法的过程经常被比作成 1900年 代早期的伟大的行为主义实验。Pavlov 用铃铛引发小狗分泌唾液并非通过对小狗饥饿的深度理解,而仅仅是通过不断地重复同一个动作。他不断地提供数据,直到代码重写了它自己。不管你对行为主义者是什么想法,他们确实懂得如何控制他们的实验对象。

Thrun 表示,从长远来看,机器学习会有一种民主化影响。就好比你今天不需要懂 HTML 技术就能创建网站一样,你最终也将不需要拥有博士学位就能挖掘深度学习的无穷力量。编程将不再是掌握经过训练的掌握一系列神秘语言的程序员的独有技能。只要你之前曾教过小狗翻身打滚,你就能掌握。这对我来说是最酷的事情,因为到时任何人都可以编程了。

在大部分的计算历史上,我们一直在采用由内而外的视角来看待机器是如何工作的这个问题。首先,我们编写代码,然后由机器去表达它。这种世界观蕴含了可塑性,但同时也展示了一种基于规则的决定论,即事物是最深层的指令的产物。机器学习则与此恰好相反,它采用的是一种由外而内的视角,在这种视角下,代码不仅决定行为,行为同时也决定了代码。机器是这个世界的产物。

最终,我们既会领教手写的线性代码的力量,也会感激机器学习算法调整它的力量。像 Crispr 这样的基因组编辑技术给了生物学家那些传统软件程序员已经运用的操控代码的力量。不过在表观遗传学领域的发现表明,遗传物质并不是一套一层不变的指令,而是一套会根据所在环境和经验调整的动态开关。我们的代码并不会脱离物质世界而单独存在,它是被物质世界深深影响的。基因科学家 Venter 可能会相信细胞是 DNA 软件驱动的机器,但遗传学专家 Steve Cole 则提出了一个不同的想法:一个细胞就是一个将经验转化为生物的机器。

今天,计算机已经变成了一种能够将经验转化为技术的设备。在过去的几十年里,我们一直在寻求能够解释和优化我们对于世界的体验的神秘代码。但我们的机器无法按照这种方式工作太久。我们与技术的关系将会变得越来越复杂,最终我们也将能从这种关系中受益更多。我们将从之前的纯粹命令控制我们的设备转变为培养调教和训练它们。

转载本站任何文章请注明:转载至神刀安全网,谢谢神刀安全网 » 代码的终结,我们很快就能像调教狗一样来调教我们的计算机

分享到:更多 ()

评论 抢沙发

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址