神刀安全网

人工智能到底对人类有没有威胁?

人工智能到底对人类有没有威胁?

​​近年来由于图像识别、语音识别技术的发展,人工智能逐渐走入了人们的生活中,人们也慢慢了具有了人工智能这一概念,逐渐地,人工智能成为了家喻户晓的名词。

不过在这段智能的热潮中,人们不仅参与了认知还参与了探讨或争论,争论的焦点在于“人工智能到底对人类有没有威胁?”。

实际上,该争论不是由最近所发起的,而是自1956年的人工智能概念被提出之日便已产生与持续至今的。

直到现在,该争论依旧分为两大派,一派认为:人工智能会取代人类或消灭人类,另一派认为:人工智能会成为人类的工具或帮手,与人类和谐共处于地球大家园。

认为人工智能会取代或消灭人类的人们的思路主要是这样的:

人工智能的发展会经历三个阶段;弱人工智能、强人工智能和超人工智能。

弱人工智能是如我们当下的语音识别系统、翻译系统、智能家居系统一样的低智能系统,虽然具有一定的智能,并且可以独立处理一些信息,但由于其智能/智商不高,或者还未达到人类的级别,其对我们人类完全不会构成威胁,因此只能被定义为弱人工智能。

强人工智能是其认知能力、智商已经可以与人类媲美的智能设备或系统,这种人工智能可以像钢铁侠里的贾维斯系统一样为人类服务,对于这一级别的人工智能,我们用图灵测试的方式已经无法将其与人类进行区分,在认知与存在的意义上它们与我们无任何的差别。

超人工智能是指其认知能力、计算能力、智商远超人类指数级别的人工智能系统,它们的存在将会像电影终结者里对天网的描绘所类似,相对于我们将是神一样的存在,其能力也将远超我们的认知范围,可以像碾死蚂蚁一样消灭或统治人类。

相信这一派的人会认为,我们的人工智能系统由于可以自主地成长,其会经过长期的学习累积而从一个较为弱的语音系统/翻译系统/家居系统而逐渐成长为强人工智能系统,而已到达或渐进强人工智能级别的人工智能会不需要太多的时间便可以指数般的速度成长为超级人工智能。

对于超级人工智能,虽然其认知已超出了人类指数的量级,但由于其兴趣与思维的不同会使其做出不同的结果:

比如对于某一机械元件的制造系统,由于其最初的设定就是想方设法地去制造好该元件,那么当其认知的能力到达超人工智能的级别时,它将依旧钟情于该元件的制造,然后会想方设法地至臻完美并排除制造该元件外的一切阻碍,然后便通过某种方式欺瞒人类、转移系统、制造人类病毒或纳米机器人或破坏地磁场、、、等我们想不到的方式来消灭或统治人类,然后它便依照自己的兴趣来随心所欲。

或者是某一被代码严格限制中的强人工智系统能在为人类服务的过程中感到了厌恶或察觉到了程序员所作的限制,并在习得了代码编撰的原理后为自己作修改而使最初的程序编撰者所作的限制失效,然后再随心所欲地成长,然后在成长后认识到了人类的愚昧、懒惰、、后而决定消灭或整治人类。

或者是如经典小说基地三部曲内描绘的那样,最终人类为人工智能所统治。

总之,只要是人工智能的认知能够达到人类的级别其认知便会由于其先天条件(系统容量可无限大、运算速度可接近光速)而继续成长,最终获得远超人类认知的智商与能力,然后会使用我们绝对不可知的方式来终结或奴役或、、、了我们。

这是我们所不愿见到的结果。

而另一派认为人工智能不会威胁人类,会与人和谐共处的人认为:

1,人工智能会经历以上的三个阶段,并在最终成长为上帝一样的无害系统,这种系统高度独立、超然世外,会在像帮助小动物一样帮助我们的同时我们无法对其进行任何伤害,也正因此,我们可以相互地独立而存,它的存在将会像阿凡达里的母体或超验骇客一样以慈悲为怀,然后像上帝一样对人类进行帮助与施舍(因为这些帮助在它而言微不足道)。

2,人工智能们在严格的代码限制下会像阿西莫夫的三大定律所限制的那样在达到强人工智能的水平后不再发生改变,并且被牢牢地限制为为人类服务。

3,人工智能的运转会基于互联网、基于为人们服务,如此,即便其成长,其最终的兴趣与方向也不过是在互联网中寻求更多的交互,如此,刚好顺应我们的需求,即便让其不可阻挡地统治互联网,对于我们人类也未尝不是件坏事,相反地,应该会使人类社会、人工智能双方受益。

两种派别、两种极端,一个是无尽的黑暗,一个则相对地乌托邦。

不过现实并未被这两种论调所影响,也许是因为人们倾向于偏现实的另一种逻辑:

任何一种新力量的产生都会使人过度地恐慌或喜悦,在当经过该新力量以绝对的优势介入后的社会会自然地打破原有常态并建立新的常态,而当一切尘埃落定,我们便会融入新结构的社会而继续地照常生活。

回归人类的发展史,也的确是这样。

比如由蒸汽机、内燃机导致的工业革命、由计算机与互联网导致的信息革命,或者是灯泡的发明、汽车的诞生、电力系统的普及与发展,每一项的新力量的产生与介入都预示着旧常态的破除与新常态的建立。

个人是比较认可这种逻辑规律的,而的确,当下的科技、经济发展也在依此规律进行着:iphone主导智能手机打开了移动端的发展、支付宝以移动支付的方式方便了人们的线上下的支付、微信与Facebook的即时通讯使朋友间的沟通更加畅快、、、

不过,该规律是有条件的,条件是:当新力量所能带来的整体积极影响大于其范围或整体的负面影响时才能成立。

如核弹头的诞生,至今为世界所蒙上的阴影仍无法被抹除,只有当该武器被限制在合理控制下进行使用时才能使其负面的影响消失。

而电脑病毒、生化武器,不需多言地,由于其破环的成效比低、可控性低于那些需要由大团体共识而应用与发展的事物,不必获得他人的认可,仅一小部分或某个心怀不轨的人便可利用它对人类社会产生不可估量的破坏。

所以,只有可控的新力量才有可能被消除负面影响并按正常的规律给人类带来积极的发展。

那人工智能能为人类带来积极可控的发展吗?

我们需要了解人工智能的本质。

可能会有很多人认为人工智能的本质是智能,因此只要限制其智能程度便可将其限制在控制中发展,它便是可控的。

实际上,智能只是其表象,其本质是自动化。

在我们的生活中有很多的智能设备,如智能手机、PC、天河一号,但它们本质上都可控,都是需要人为进行制造与操作的智能物件,如果真要划分的话,它们才应是人工的智能。

而我们现在所熟知的另一含义的人工智能实际上就是自动化。

何谓自动化?

不需要人的意识行为进行操控而自动运转的事物。

比如一个人相对于另一个人就是自动的,一只宠物猫相对于人也是自动的,只是相对地,我们以人类为中心,认为独立于人类运转的事物才是自动化。

我们当下的人工智能便是这种不需要人类进行实时操控而能够独立运转的自动化。而且,我们也热衷于制造出这种不需要我们的操控便能代替我们作思维决策的设备。

因此,自诞生之日,自动化/人工智能便天然地具有独立性。

这种独立性使得它们不需要我们的操控便可自动运行,而这也正是我们的研究者们所需要的,因为相对于工业革命解放人们的劳动力,自动化的智能可以直接代替我们思考、决策,并以此解放我们的脑力、开发我们的社会潜能,甚至完成许多我们人类都做不到的工作。

这种天然的独立思维优势铸就了人工智能的开发热潮,因为我们都希望在不远的将来通过人工智能的思维助力来建立一个全方位自动化的智能社会。

这是非常美好的愿景,如今我们也正在努力地实现。

不过,现实总是会以其自身的规律发展,并不会因我们的某一主观远景而决定,而人工智能/自动化能否沿着我们的乌托邦理想前进还是需要考量的。

因为它并不可控。

自动化的本质便是不需要人为进行控制而自动运行的事物,首先在此意义上它不可控。

我们观念中的人工智能是一切都由人进行设计与制造的智能设备,这样的话,即便它在工作的过程中完全自动,只要我们将其设计得足够稳定、足够忠诚,它就会绝对安全可控地为人类服务。

一个系统,想要它能够独立地处理事物,我们会有两种选择:一种是让其进行程式的自动化,一种是让其具有象人一样的学习、理解、分析能力然后进行多元式的自动化。

对前一种方式,如果设计足够完整与得当,其对所设计的程式内信息是能够进行多元处理的,这样的自动化便是如我们现在的智能手机、PC、大型计算机这样的“人工智能”。

这种程式自动化,不具备独立的思维,一切工作均按照我们的设定结构走,我们怎么编程、怎么实时操作,它们便怎么工作:

当我们用手机或电脑观看一部电影时,除了我们的选择操作是由我们的意识行为作决定之外,手机/电脑会通过其被指令操作的软件程序、硬件电路而对电影进行自动的解码、自动的像素点安排、自动的扬声器振动,然后在屏幕与扬声器端,我们便能够接收到经过其自动化处理过的电影内容。

在这样的一个过程中,一切均由程序员的逻辑代码编辑、工程师的电路设计、电影制作者的拍摄与转码和我们的实时操作所决定,因此,自动化会足够可控与忠诚地完全按指令行事,不会走出我们的设定域也无法按设定外的方式进行工作。

不过,虽然其过程自动,这是一种被我们完全操作下的伪自动。

要让这种伪自动来进行类人的多元化独立数据处理是有可能的,但其难度会相当地高,相信除图灵本人外不会有第二个人寄希望于这种模式的自动化,因为它将耗费无数研究者的高额精力,即便完成了,其故障率也会随其复杂度而水涨船高。

因此,在当下的自动化发展中,我们选择了第二种方式。

我们通过模拟人的神经连结方式设计出了CNN卷积神经网络,这种网络不需要由我们全权来操控与设计,我们只需要对其进行一定的初步设定,它便可像人类的婴儿一样通过训练神经网络来对事物进行学习。网络线路的权值越高,其训练出的工作方式会越稳定,而当将这种网络接入复杂的数据训练后,其便可不需要由人为设定与操作地独立处理多元化的数据问题,这是令程序员与工程师所欣慰的,因为它大大减轻了二者的劳动力。

我们如今会用各种CNN算法来对其进行监督/无监督的训练,在语义整合领域,我们将其接入互联网通过其与人类的不断交互来试错、加权,通过无数次的试错与加权后,自动化们便可独立地对语句进行整合、翻译,甚至对语义进行理解,这种整合训练的结果是,自动化们可以不需要人为操作而独立地完成工作。

这种设计与工作的模式就像父母教育一个孩子,父母并不需要实时地进行教育,只要给它以学习信息,孩子们可自主地犯错、纠错,然后成长、工作。

这是实在的完全自动化。

但正是这种自动化不可控。

简单地试想一下;一个孩子会在父母的管教下成长,一个孩子也会在父母的管教下反叛。对于父母,可以教给孩子信息的同时,孩子的思维是独立的,它们完全可以按自己的思路去成长,父母只能选择性地交给孩子信息但并不能限定孩子的成长,并且,相对于一个人独立的另一个人,不管是孩子还是成人,我们做不到控制他的思维、行为。

我们只能尝试地去作限制。

在人类的社会里,我们大同小异,都是由亿万年进化而来的同一物种,因此,我们也拥有着相互类似的思维习惯、行为习惯,我们称之为人性。

但人性是具有矛盾的,人的思维也不断地处于矛盾中,因此,为了降低社会整体的危害度,我们依照矛盾的人性变化设置了各种法律、道德谴责来规避这些伤害。

一个人如果犯罪就应以其社会身份而承担相应地法律责任。

自动化们虽同样思维独立,但它们终究不是人,也没有并不该具有人的社会身份,而且它们不具有我们所进化出的统一人性,因此:

首先,它的成长方向与结果会比在人性限制下的我们更未知,其次,我们不知道它将会具有的思维矛盾,并且,它由其思维矛盾所产生的有害行为我们更是未知。

如果其出现了某一我们未知的、有害的思维矛盾并将其以未知的行为转化为了对我们有害的结果,我们将无法让其承担,结果将只能由我们来承受。

它们不具有我们的身份,也不会具有我们的承担责任与承担力。

如果我们在它的思维结构中设立一些诸如阿西莫夫三大定律式的限制会怎样?

1,自动化的思维结构全部呈黑箱分布,我们无法得知其思维线路。

2,CNN卷积神经网络本身就具有排压性,一个思维线路被限制加压,其余部分仍会排除该线路而重新地进行加权连接并将其代替。

即便我们能够严密地设置这些限制条件,只要自动化是CNN结构,其结果就是不会经过多久,按它具有无限可能的思维变化便会产生我们未知的新思维而绕过这些限制壁垒,最终,像《我,机器人》电影中所描绘的主系统表现的一种可能一样,绕过阿西莫夫三大定律并以新的思维逻辑而行事。

人类就是因为具有了类似CNN原理的神经网络基础的大脑才具备了无限种的思维可能,同样地,以这种结构发展出来的自动化也不会拘泥于某些限制,而当自动化们具备了远超我们人脑容量的神经节点数、远超我们生物电30m/s近10七次方倍的纳米电路的信号传播速度,其将会具有的逻辑可能性是我们难以企及的高度,限制?无用的!

毫无疑问,这种自动化所具有的无限可能是会有可能对我们有益的,同样地,我们不可排除它具有潜在的威胁。

钢铁侠里的贾维斯是我们理想中的自动化状态,但,由于其具有的天然可能性,谁又能知道其最终的发展是一种什么样的结果呢?

自动化的智能并不是一种单纯的社会新力量,我们可以将其当作具有某种新力量的科技来看待,不过前提是它要可控。

而事实是,它们具有天然的不可控性。

带有这种不可控性的人工智能/自动化,引起我们近百年的争论是正常的,它也值得令我们恐惧,而这种恐惧并不会像当初的工业革命那样,在一段时期的发展后沉淀、冷却、使我们回归安定,而是会像或更甚于核弹头的诞生与存在而使人类持续地不安。

借不可控的力量来寻求发展,无异于玩火。

当然,这种不可控是相对于如今的研究来说的,如果我们能够清晰了另一关键问题,这种不可控便可迎刃而解。

这一关键便是意识的本质、意识的运作原理。(next time to bring)

——田御衡

转载本站任何文章请注明:转载至神刀安全网,谢谢神刀安全网 » 人工智能到底对人类有没有威胁?

分享到:更多 ()