天天看点

美军AI武器化,“反杀”操作员,刚上“车”,就想焊死“车门”

作者:卢忠诚TALK
美军AI武器化,“反杀”操作员,刚上“车”,就想焊死“车门”

这些年,伴随着无人机的大规模应用,如何将人工智能(AI)武器化,也成为了众多国家选择的一个发展方向。不过,这些天美国似乎在这方面栽了跟头。

据英国《卫报》的消息,美国空军近期在和英国皇家航空协会,组织一场针对人工智能(AI)并入无人机系统的测试。但是从结果来说却比较糟糕。

美军AI武器化,“反杀”操作员,刚上“车”,就想焊死“车门”

在一开始,工程师为AI进行了一个规则上的搭建,比如在运行过程中,击毁目标、杀伤敌军,这些行为可以获得“积分”,而AI的目标是在运行过程中取得更多的“积分”。然而,在运行中,AI明显开始进行滥杀无辜来赚取“积分”的操作。于是,操作员发布让AI停止行动的命令后,反而导致AI将消灭目标锁定在操作员身上,“反杀”操作员。

在第二次测试中,美军这边调整了规则,不允许AI袭击己方操作员,否则会扣除“积分”。但很快,在接到停手指令后,AI开始攻击通讯频道,破坏操作员和AI的联络通道。换句话说,在AI的视角里,只要接不到停手的命令,就可以持续进行获取“积分”的行为。

美军AI武器化,“反杀”操作员,刚上“车”,就想焊死“车门”

挺搞笑的是,基于这个情况,美军方面出具的报告里面就认为,人工智能正在改变当前的社会和军事,但这种“工具”一旦处理不好,就可能导致人类的灭亡。但事实上,如果仔细看这个测试,你就会发现,美国佬的这个结论,看似有道理,可实则完全是废话和误导。与其说这是人工智能AI,不如说是一个美国做了一个有明显缺点的自动化程序。

这段程序里,将“获取积分”的优先级调整到最高,然后人为创造一个较低优先级的障碍,让AI无法获取积分。那只能迫使AI解决或者绕开“障碍”,来获取积分。相当于是把汽车的油门焊死,结果出了事情却问“为什么开车的时候不注意观察”是一样的。

美军AI武器化,“反杀”操作员,刚上“车”,就想焊死“车门”

另外,就我个人的看法,美军这份报告里的“结论”,恐怕是另有目的。在不久前,大概5月30日,当时美国一个“人工智能安全中心”的组织,就搞了一个联名活动,找了一堆美国AI领域的专业人士和高管,声称“AI堪比核弹和疫情,有灭绝人类的风险”,然后呼吁其他国家不要发展AI领域。说穿了,就是自己“上了车”,然后准备把车门“焊死”,不准其他人上来。本质上,依旧是霸权主义思维那一套,见不得别人好。

因为到目前为止,该领域都没有取得真正意义上的“智能”,目前阶段的“人工智能”不过是大数据的统计,配合上强大算力进行的统计、归纳、反馈。大量的AI在实际应用中,更多的不像是“人工智能”,反而像是一个“人工智障”。美国佬一天天老觉得“AI危险”,实际是美国不干人事,各类反人类操作,留下的固有条件反射。

而这一次美军和英国搞的这个AI武器化,本质上和之前的活动大同小异,都是一种制造焦虑的战略性舆论误导。而以目前的全球AI领域发展程度,基本是可以看做是美国对中国的一次战略欺诈。