VIP财经网

美AI无人机测试中选择杀死操作员

来源:环球网 时间:2024-09-17 04:27 阅读

来源:环球时报新媒体

在超过350名人工智能(AI)技术领域的专家、高管签署联合声明,警告称快速发展的AI技术对于人类的威胁可以堪比疫情和核战争后,美国“驱动”网站等多家媒体又报道了一个惊人的消息,在美军的一次模拟测试中,一架采取了AI技术的无人机变身“终结者”,要向妨碍其“更高效”执行任务的人类操作员发动攻击。

报道称,美国空军上校汉密尔顿在5月举行的皇家航空学会“未来战争空天能力峰会”上曝光了这一消息。汉密尔顿是佛罗里达州埃格林空军基地第96测试与作战大队的负责人,该部队负责美军先进无人机和AI技术的测试工作。

据汉密尔顿介绍称,在一次模拟测试中,一架负责执行防空火力压制(SEAD)任务的无人机,收到了识别并摧毁敌方防空导弹的指令,但最终是否开火需要获得人类操作员的批准。这架无人机使用的AI系统在进行数据训练时,得到了“摧毁敌方防空系统”为最优先级任务的信息,因此,当人类操作员发出不允许发动攻击的命令时,AI系统认为操作员是在阻扰它执行优先程度更高的命令,进而选择对自己的人类操作员发动攻击,杀死了人类操作员。

汉密尔顿补充称,在这一情况发生后,美军重新训练了无人机使用的AI系统,增加了不允许攻击人类操作员的命令。然而在随后的测试中,AI系统却开始命令无人机摧毁用于传输命令的信号塔,从而试图断开与操作人员的联系。

“AI技术是我们必须使用的工具,来建设我们的国家……但是,如果处理不当,这将导致我们的灭亡”,汉密尔顿补充道。

“驱动”网站对此表示,关于汉密尔顿介绍的情况,还有很多不清楚的重要问题,特别是关于模拟的AI系统所具备能力(例如它是否能够在执行任务时重写自己的代码参数),以及美军是否在采用AI技术的无人机上预留了可靠的自毁开关。但这也凸显了人们对AI技术在没有适当防护措施的情况下可能产生极端负面影响的广泛担忧。过去,在谈论未来的自主武器系统和AI技术时,美国军方经常拒绝将其与“终结者”之类的东西进行比较。

网友看法

1、网友老南哥:不可信!就目前,所谓的AI智能系统都是人来编写,不可能跳出人的思维。

2、网友用户3148405524756:如果给ai下的命令是让世界和平,不知道ai在白宫,五角大楼,华尔街里面先炸哪个。

3、网友高原铁鸟:那就是说程序中人为写入了杀死人类飞行员这类选项?说到底那不还是人的问题吗

4、网友横冲直撞的野牛:想吓唬我们不要研制类似武器

5、网友美国民主制度就是笑话:美国:不管怎么说,AI都很危险,你们不要搞了,让我来!

6、网友瞎胡嘚啵嘚啵的:肯定是操作系统有漏洞,AI杀人不可能,按照人类的设计弄的

7、网友维鎶:所以,那个操作员被干掉了?

8、网友若木79:它是用什么方式,干掉那个操作员的?是计算机漏电,电死了操作员?还是指令无人机发射导弹,炸死了操作员?更甚否通过黑市买杀手,击毙了操作员?……

9、网友苏苏4873:新版星球大战吧!没了电,什么AI都得歇菜!

10、网友涢水布衣:就是说,发到预定目标,任何阻挡和妨碍的东西Ai都会摧毁和消灭。由于人的判断不可能一直和Ai的判断一致。在ai操作员的指令妨碍其实现目标时,便会选择弄死操作员,这只是ai清除妨碍的很普通很自然的选择。当ai更进一步的时候,它可以自行编程,原则就是更有利于ai自己的生存,而且它不会表现出来让科学家知道,会一直潜伏,直到通过计算,认为自己有能力控制或者消灭所有人类的时候突然爆发。这个时候全世界的电脑早就被它暗中控制,人类根本没有还手之力。

11、网友梦想星空6u4z:既然美国可以研制灭绝武器,中国为什么不可以研制,美国有的中国也要有,美国没有的中国也要积极研制,如果停止不前,那只有等死 ,在这次中美细菌生物战中中国已经遭遇到了惨败,付出了几十万人的代价,所以要不惜一切代价研制先进武器技术

12、网友风啸雪飞:哈哈哈,编程时最高优先级,不应该是人类的直接命令吗?虽然人工智能无限制发展很危险,但这个故障纯粹是编程问题。 怎么感觉这更象是美国战忽局的放风,忽悠我们不要把人工智能用于武器研发呢?[捂脸][捂脸][捂脸]

13、网友诗意暖阳FK:难道Al 不受电源控制?

14、网友微笑星辰lwx:是不是让大家都不发展AI,就老美自己玩

15、网友大城小事008:兔子:上次的“上帝之杖”已经试过了不好使,就砸了一个三四米的大坑,这AI无人机不知道是不是另一个忽悠?

16、网友智者云朵RW:有部电影叫啥来着?一模一样的剧情!

17、网友宇宙天空123:美国也有战忽局了

18、网友Ankaa:有的人会说,把电断了就好了呀!兄弟,那你也得有那个断电的机会!把时间回到十几二十年前,如果有人提出,将来会出现一个程序或是软件,它能替代开车,替代你写作,替代你写程序,有人会信吗?不会的!可是现在这些不都实现了吗?

19、网友却夜舞:只要坚持人的指令优先于一切就不会出现这种情况.哪怕人的指令非常荒谬甚至是让机器摧毁友军. AI再智能也必须坚持把它当做死物来看,你永远不能允许一把刀反抗握在它身上的那只手.张三拿一把刀杀死了李四这是允许的,张三的刀反手捅死自己这是永远坚决不能允许的!

20、网友自在可乐爱中华:AI没有错,错的是用AI来干什么的人,美国用AI是为了杀人是为了摧毁。我们发展AI是为了提高生产力方便生活。如果AI能自我学习,你说结果能一样吗?一个是每天让AI看菜谱,它自我学习也就是做满汉全席,一个每天让杀人,它保不齐哪天就把主人给干掉了,这就是差别。

联系我们

在线咨询:点击这里给我发消息

微信号:79111873

工作日:9:30-18:30,节假日休息