AI自主无人机压倒性击败拥有超过两千小时飞行经验的飞行员

  人工智能在军事上的应用近年来日益受到重视,在未来战争中可能成为决定胜负的关键。人工智能自主性武器,被认为是仅次于火药和核武器的第三次武器变革,尤其是搭载人工智能系统的无人机,很可能在未来几年内就可以部署完毕。

  搭载人工智能系统的无人机比人类运作无人机更有优势,因为它们可以在短时间内快速处理大量信息,具有超高的决策速度和精度,在空中长时间运行而不需要飞行员的休息,也可以在危险的地点执行任务。此外,无人机可以组成蜂群,即使个体失效,整体任务也能够继续执行。

  当人类遥控武器与人工智能自主无人武器相互较量时,与具有压倒性决策速度的自主无人武器相比,人类操作员无法赢得竞争。

  2020年8月,美国举行了一场代号“阿尔法狗斗” 的模拟空战演习,AI击败了一名拥有超过2000小时飞行经验的F16飞行员,五场战斗全部落败。

  

  此外,远程控制需要无人武器和人类操作员之间的通信链路,如果通信链路中断,武器将无法使用。相比之下,配备人工智能的自主操作的无人武器,可以在面对干扰时自主操作。

  无人武器还可以在高空或深水中连续运行,并能高速快速转弯,这是人类无法做到的。此外,无人武器可以在危险地点执行任务,没有机组人员意味着不需要生活空间、生命支持和安全设备,从而使得制造成本更低,机身更小,雷达也不容易发现。

  虽然人工智能系统在应用于无人机方面有很大的潜力,但由于安全性和伦理的考虑,目前还没有让人工智能完全控制武器的明确计划。

  一个原因是,自主性武器也无法保证复杂的系统一旦进入现实世界不会出现故障,美国一架F22战机第一次越过国际日期变更线时,电脑死机,飞机差点停留在太平洋上空。

  在2003年伊拉克战争中,美国一架海军飞机F/A-18被爱国者的自动化系统误识别为敌机,杀死了友方F/A-18的飞行员。

  

  任何重大决定的时候都需要经过人类的审核,攻击命令必须由人类下达,以防止机器出现失误。

  在人工智能和无人机技术的发展过程中,尤其需要注意安全问题,以避免类似于失控和误识别的事故发生。人工智能自主性武器的发展还面临很多技术和伦理方面的挑战,需要不断探索和研究。

  总之,人工智能和无人机技术的发展将会对未来的战争产生深远影响,人们需要更加关注技术的安全性和实际应用的伦理问题,以保证这项技术能够真正发挥它的效能,为人类带来更多的福祉。

  举报/反馈