人们愿意派遣杀人机器到前线作战,而不愿让自己子女战死沙场。但是,人们却又不希望看到敌人派杀人机器来追杀自己。那么,人类到底要不要拥有这种“杀手机器人”(killer robots),即所谓的致命的自主武器 (lethal autonomous weapons)?对于这件事,特斯拉和SpaceX CEO埃隆·马斯克的立场可谓异常坚定:禁止。
《中国经济周刊》对此刊发《除了车和火箭,马斯克还对一件事非常上心》一文,回顾了包括马斯克在内的众多科技圈大佬对于所谓“杀手机器人”的忧虑,不过也有人认为马斯克是杞人忧天。你怎么看?
担心:科技圈的呼吁力量有限
@睿棋:潘多拉魔盒一直都在,有人封存就有人窃取,有人强行打开就有人抢夺。
@你在哪儿呢:科技圈大佬们做的关于禁止“杀手机器人”的承诺让我觉得恐怖。因为他们这样承诺,就意味着可能有人在造杀人的AI了,细思恐极。
@墅燕:人类有时候是控制不了自己内心欲望的。电影 《未来世界》 正在逐渐走近我们,而此刻的我们都在为能使用机器人为自己盈利而沾沾自喜,浑然不知。抑制人的警觉性从来不是一步到位的,温水煮青蛙乃是最简单最实用的。
@云上逐日行:等真的造出了高级人工智能,用不用在武器上就由不得你们决定了。
@猁子9:人工智能发展永远不是几千个科技圈的人能把握的。
@废纸桶子:就算签了不开发自主杀人机器的宣言,也可能会撕毁,只是现在没造出来或者说没有利益冲突而已。希望科学家不要向资本低头,不要把承诺变成废纸。
机器人落入不法分子之手最可怕
@小雨:人控制的杀人机器是武器,不可怕。能让机器来选择杀谁的机器,才可怕。
@曾伽·宗博鲁特:你并不能决定所谓的自主武器如何使用。水结成冰都能成为致命武器,主要看谁使用,只有致命程度的高低之分。
@孤寡老汉:如果无人驾驶的车载电脑被人黑进去了,想想都恐怖。
@雲師兄:菜刀不会杀人,但是到了暴徒手里就是凶器。机器人不会杀人,但是到了恐怖分子手里,他能给改成杀人机器人。
@silent1090536:问题是怎么能保证机器人的核心技术不会落到恐怖组织的人的手里。
需要法律护卫发展
@白罗斯水晶:大多时候,机器人只是一种智能化生产工具,如果编入特定的程序给它作业,它当然会“屠杀”。是在屠宰场屠杀牲畜,还是出门去战场屠杀人?至于机器人能否作为武器投入战争,有国际法规定吗?
@喜欢倒着仰泳:机器人杀人,其“父母”应该一律以死刑论处。
@ 一蓑烟雨qxsmh:避免潜在风险最有效的办法实际上并不取决于技术发展,而取决于人类的决定。
@Reder:有AI就必须要有反AI,从法律、设计理念、技术规范及软件硬件等,构建完备的法律方面的规范系统。
编辑:牛绮思 [email protected]
美编:孙珍兰