6月5日,美国国防部网站刊登新闻文章,引述了前一日五角大楼联合人工智能中心(Joint Artificial Intelligence Center)主任杰克·沙纳汉 (Jack Shanahan) 中将对AI用于军事的最新谈话。

沙纳汉中将表示,AI将会在未来20年进程中转型战争,对此他十分确信并充满激情。他认为,整个美国国防部都将受到人工智能的影响——从后勤到战场、从海底到网络空间再到太空,无一不包括在内。以下是沙纳汉中将本次谈话的主要内容。

关于AI

人工智能正广泛应用于商业领域,但美国国防部的尝试大约只有10年,并且在落地方面有些出师不利。长久以来,美国国防部都苦于如何将全世界最优秀的研发能力快速、大规模地用于战场。

关于中心

联合人工智能中心大约在2年前开始运作,有185名员工,每年预算13亿美元。目前所有“基础元素”都已就位,这些元素包括了AI策略、政策、道德、应用规则、用户测试与评估等。

关于目标

联合人工智能中心首先关注低风险任务,如人道援助等,但可能最重要的还是聚焦于联合作战行动。未来1-2年,中心的目标是把AI赋能的系统应用于作战人员。

关于转型

要把国防部从工业时代的硬件驱动转变为信息时代的软件驱动并非易事,从众多风险中选择哪些去承担更非易事。我们和陈年的系统、陈年的流程以及陈年的人才管理打交道已经有60年了,无法简单把前沿科技直接装在陈年装备上就指望获得转型,而必须把AI融入到国防部每天的日常工作中。

尽管该文标题为《专家预测人工智能将转型战争》,但内容中既没有AI专家观点,也没有接地气的干货,给人感觉更多还是对“AI+军事”的迷茫和不确定性。

从全球来看,其实大家都很迷茫。联合国在去年8月就召集了一次各成员国的讨论会,重点谈论了AI等新科技在军事领域的应用及影响,其会议总结就指出,AI与国家军事结合,对国际和平与安全可能产生的影响,在很大程度上仍不明了。该讨论会为期2天,在纽约联合国总部举办,与会者包括各国代表、业界与学界专家组织等,主要讨论了AI军事应用的潜在风险、益处及管制。

潜在风险方面,除自动化武器系统直接带来的安全、法律、道德问题外,还会产生其他一系列问题挑战国际和平与安全。比如在AI辅助军事决策方面,由于AI系统的复杂性与缺乏透明性,一旦出现错误,那么错误到底是源于系统本身还是源于人为干预,就很难弄清。

另外,AI应用也可能带来军备竞赛问题。首先,过去的经验已经告诉我们,军备竞赛花销巨大但收效甚微;其次,军备竞赛极易造成各国相互猜忌;最后,军备竞赛容易造成技术上不成熟就仓促上马。

潜在益处方面,AI的潜力不只是武器系统,比如可以让人类避免一些有生命危险的工作、减少人类的非创造性工作、降低逻辑运算和感知成本。在协助决策方面,AI尤其擅长提供各类信息,如获取、处理、储存、分析视频和数字信息,提升信息的数量、质量和精确性。决策者们可以利用这些信息来优化设备、减少平民伤亡。

与会各方认为,AI在军事应用方面的益处需要政府间、产业界的更加频繁深度的合作,也需要科技人员、决策者和军事人员间更多更好的综合培训。

  • 以上内容仅代表作者个人观点,不代表氢云资讯观点及立场
  • 以上内容及观点不构成任何投资建议,据此投资后果自负