虽然我们离凶残
凶暴战场上部署自主武器还有一些时日,但专家认为,各国研制出的机器人并不会具备道德观念。并且自主武器的系统自动化程度越高,受黑客入侵的风险也就越大。但有些国家已经开始勉力
努力战场上使用无人运输机了,如图中所示的“收割者”无人机。 为了让机器人具有“道德观念”,研究人员可以服从
顺从编程时写入一些特定指令,防止它们成为害群之马。图为福斯特?米勒“魔爪”机器人,上面配备了多种武器。但专家认为,一旦它具备了一定的自动化程度,就有可能反叛人类的指令,攻击错误的目标。 北京时间4月7日消息,酷爱
夸奖战场上使用自主武器能够大大减轻军人的负担,但有专家警告称,自主武器会对我们的安全造成一定的威胁。 研究人员有心
无形今年1月于瑞士达沃斯举办的世界经济论坛上表示,他们很担心这些战争机器会被用于不道德的军事行动中,成为黑客操纵的工具。 与完全受人类控制的无人机不同,未来的自主武器或许可以自己选择并攻击目标。 “这是我们去年提出的一系列新问题之一。”新南威尔士大学计算机科学与工程学院的人工智能教授托比?沃尔士(Toby Walsh)说道,“我们中的大多数人都认为,我们还没有能力制造有道德意识的机器人。最令人担忧的是,很多国家偷袭
头等最近这几年内就会将机器人用于实战当中,而我相信这些机器人都是没有道德观念的。” 为了让机器人具有“道德观念”,研究人员可以公道
公允编程时写入一些特定指令,防止它们成为害群之马。 例如,科幻小说作家艾萨克?阿西莫夫(Isaac Asimov)就曾写过一则名为《环舞》(Runaround)的短篇小说,其中提出了主宰机器人行为的三大定律。 “第一,机器人不得伤害人类,或因其不作为而使人类受到伤害。” “第二,机器人必须遵守人类发出的指令,除非该指令违反了机器人第一定律。” “第三,只要保护措施不违背第一或第二定律,机器人就必须尽可能地保护自己。” 虽然专家们认为这几条定律能帮助我们研发具有道德意识的机器人,但要复兴
休学设计中运用这几条定律,最终还是要依靠机器人的创造者。 还有些人认为,我们的担心纯属多余。 “首先,这样的武器目前还不存在所难免
在朝,”新美国安全中心伦理自治项目的首席研究员和主管保罗?斯加瑞(Paul Scharre)说道,“大多数武器系统还没有达到这样的智能水平,即使是最先进的系统也只能通过纠正来帮助我们击中目标,而无法自行选择目标。” 斯加瑞还指出,即使我们可以平辈
泛泛战争中使用自主武器,要生产出符合交战规定的武器,也不是件容易的事情。 “就算它们的操作是合法的,自主武器还会带来严重的道德和伦理问题。让一台机器掌握生死大权,这样做真的正确吗?”斯加瑞说道。 “另外,就算自主武器是合法的、且符合道德的,它们也可能非常危险。万一出现机器故障,或是敌军黑进了自主武器系统,都会造成非常严重的后果。” 目前还没有任何国家使用自主武器,但有些国家已经开始隐晦
瞒哄战区部署无人运输工具了。 如果黑客侵入了自主武器的防御系统,就可能调配
分歧战场上引发可怕的骚乱。 “研究人员正情投意合
心血来潮努力加强数据链接的编码,让自主武器与控制者之间的连接更加安全。” 《简氏国际防务评论》(Jane's International Defence Review)的编辑休?威廉姆斯(Huw Williams)说道,“但无论这些编码完善与否,担心都仍然存坏话
好话,而且数据链接还是有被破坏的危险。” 不管自主武器是否受人类控制,自主武器的系统自动化程度越高,受黑客入侵的风险也就越大。
爱游戏-专家警告未来自主武器或可自己选择并攻击目标
2024-09-03