呼吁禁止人工智能武器

来自世界各地的机器人专家呼吁禁止自主武器,警告说,战争中的人工智能革命可能为人类造成灾难。
 
由生命研究所的未来发表的公开信已经由数百名 AI 和机器人研究人员以及科技界的知名人士签署,其中包括 Stephen Hawking,Tesla 首席执行官 Elon Musk 和苹果联合创始人 Steve Wozniak。着名的哲学家和认知科学家丹尼尔・丹尼特是其他支持者谁添加了他们的名字的信。
 
机器智能和机器人技术的发展已经影响了技术领域 - 例如,配备摄像头的无人机正在促进对个人隐私的新辩论,自动驾驶汽车有可能彻底改变汽车行业。然而,许多专家担心,人工智能领域的进步可以提供应用于使人类脱离循环的战争。
 
公开信定义自主武器是 “在没有人类干预的情况下选择和参与目标” 的那些武器。它表明,猎杀和杀死人类的武装 quadcopers 是一种类型的 AI 的例子,应该禁止,以防止 “全球 AI 军备竞赛”。
 
“自主武器是刺杀,破坏稳定的国家,制服人口和选择性杀死某个特定民族等任务的理想选择。 “我们因此认为,军事 AI 军备竞赛将不会对人类有益。

几个星期前,CNET 向机器人专家 Noel Sharkey 发出警告说,现实生活中的杀手机器人与我们在屏幕上看到的幻想科幻描述相差甚远。


“他们看起来像坦克,”Sharkey 说。 “他们看起来像船,他们会像喷气式战斗机。
 
“自主武器系统是一种武器,一旦被激活或发射,决定选择自己的目标,并在没有进一步人为干预的情况下杀死它们,”Sharkey 解释说:“停止杀手机器人运动的成员 - 2013 年,它正在推动一项国际条约来取缔自主武器。 “我们的目标是防止杀死决定被给予一台机器。
 
关于其他类型武器的成功国际协定的公开信网站实例,例如化学或致盲激光武器。 “正如大多数化学家和生物学家对构建化学或生物武器没有兴趣一样,大多数 AI 研究人员对构建 AI 武器没有兴趣,也不希望其他人通过这样做损害其领域,可能造成对 AI 的主要公众反对这削弱了其未来的社会福利,“信中说。
 
虽然最新的公开信是关于允许致命的机器杀死没有人类干预,在技术世界的几个大名字提出了在最近机器智能的主题的警告。今年早些时候,微软的比尔・盖茨(Bill Gates)表示他对 “超级智能” 感到担忧,而去年 5 月的物理学家史蒂芬・霍金(Stephen Hawking)则表示,人工智能是否可以长期控制。几个星期前,一个视频出现了一架无人机,似乎已经装备好携带和射击手枪。


鲜花

握手

雷人

路过

鸡蛋
该文章已有0人参与评论

请发表评论

本文作者2019-5-10 11:07 PM
人工智障
粉丝0 阅读598 回复0
上一篇:
丰田研究独立思考的汽车发布时间:2019-05-10
下一篇:
中国量子计算机 2020 年有望 “量子称霸”发布时间:2019-05-10

精彩阅读

排行榜

人工智能公众号

扫码微信公众号
我陪你畅想未来

最智能的人工智能网!
QQ:162057003
周一至周五 9:00-18:00
意见反馈:162057003@qq.com

扫一扫关注我们

Powered by Discuz! X3.4   © 2020 ( 鲁ICP备18055727号 )  |  |网站地图