神刀安全网

专家警告未来自主武器或可自己选择并攻击目标

专家警告未来自主武器或可自己选择并攻击目标 虽然我们离在战场上部署自主武器还有一些时日,但专家认为,各国研制出的机器人并不会具备道德观念。并且自主武器的系统自动化程度越高,受黑客入侵的风险也就越大。但有些国家已经开始在战场上使用无人运输机了,如图中所示的“收割者”无人机。

专家警告未来自主武器或可自己选择并攻击目标 为了让机器人具有“道德观念”,研究人员可以在编程时写入一些特定指令,防止它们成为害群之马。图为福斯特?米勒“魔爪”机器人,上面配备了多种武器。但专家认为,一旦它具备了一定的自动化程度,就有可能反叛人类的指令,攻击错误的目标。

新浪科技讯 北京时间4月7日消息,在战场上使用自主武器能够大大减轻军人的负担,但有专家警告称,自主武器会对我们的安全造成一定的威胁。

研究人员在今年1月于瑞士达沃斯举办的世界经济论坛上表示,他们很担心这些战争机器会被用于不道德的军事行动中,成为黑客操纵的工具。

与完全受人类控制的无人机不同,未来的自主武器或许可以自己选择并攻击目标。

“这是我们去年提出的一系列新问题之一。”新南威尔士大学计算机科学与工程学院的人工智能教授托比?沃尔士(Toby Walsh)说道,“我们中的大多数人都认为,我们还没有能力制造有道德意识的机器人。最令人担忧的是,很多国家在最近这几年内就会将机器人用于实战当中,而我相信这些机器人都是没有道德观念的。”

为了让机器人具有“道德观念”,研究人员可以在编程时写入一些特定指令,防止它们成为害群之马。

例如,科幻小说作家艾萨克?阿西莫夫(Isaac Asimov)就曾写过一则名为《环舞》(Runaround)的短篇小说,其中提出了主宰机器人行为的三大定律。

“第一,机器人不得伤害人类,或因其不作为而使人类受到伤害。”

“第二,机器人必须遵守人类发出的指令,除非该指令违反了机器人第一定律。”

“第三,只要保护措施不违背第一或第二定律,机器人就必须尽可能地保护自己。”

虽然专家们认为这几条定律能帮助我们研发具有道德意识的机器人,但要在设计中运用这几条定律,最终还是要依靠机器人的创造者。

还有些人认为,我们的担心纯属多余。

专家警告未来自主武器或可自己选择并攻击目标 《钢铁侠2》中的机器人(如图所示)也许和现实的差距并不大,但专家担心,一旦它们落入黑客手中,势必会在战场上引起严重的骚乱。专家们担心的不只是机器人设备本身,他们更担心黑客会侵入整个无人武器系统。

专家警告未来自主武器或可自己选择并攻击目标 不管自主武器是否受人类控制,自主武器的系统自动化程度越高,受黑客入侵的风险也就越大。图为MQ-9“死神”无人机,一旦受到黑客入侵,就可能对错误的目标发起攻击。

“首先,这样的武器目前还不存在,”新美国安全中心伦理自治项目的首席研究员和主管保罗?斯加瑞(Paul Scharre)说道,“大多数武器系统还没有达到这样的智能水平,即使是最先进的系统也只能通过纠正来帮助我们击中目标,而无法自行选择目标。”

斯加瑞还指出,即使我们可以在战争中使用自主武器,要生产出符合交战规定的武器,也不是件容易的事情。

“就算它们的操作是合法的,自主武器还会带来严重的道德和伦理问题。让一台机器掌握生死大权,这样做真的正确吗?”斯加瑞说道。

“另外,就算自主武器是合法的、且符合道德的,它们也可能非常危险。万一出现机器故障,或是敌军黑进了自主武器系统,都会造成非常严重的后果。”

目前还没有任何国家使用自主武器,但有些国家已经开始在战区部署无人运输工具了。

如果黑客侵入了自主武器的防御系统,就可能在战场上引发可怕的骚乱。

“研究人员正在努力加强数据链接的编码,让自主武器与控制者之间的连接更加安全。” 《简氏国际防务评论》(Jane’s International Defence Review)的编辑休?威廉姆斯(Huw Williams)说道,“但无论这些编码完善与否,担心都仍然存在,而且数据链接还是有被破坏的危险。”

不管自主武器是否受人类控制,自主武器的系统自动化程度越高,受黑客入侵的风险也就越大。(叶子)

转载本站任何文章请注明:转载至神刀安全网,谢谢神刀安全网 » 专家警告未来自主武器或可自己选择并攻击目标

分享到:更多 ()

评论 抢沙发

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址
分享按钮