美国特种作战司令部推进可解释人工智能相关技术研发工作
美国特种作战司令部(SOCOM)表示,开发人员需构建基于道德的军事人工智能,同时须加速研发可解释人工智能相关技术。
可解释的人工智能并非一种全新的想法,美国国防高级研究计划局(DARPA)于2018年就展示了可解释人工智能相关技术能力。DARPA指出,该项目旨在保持算法的高预测精度,同时也能提供人类可理解和信任的结果,从而将算法与人类联系起来。可解释人工智能与基于道德的人工智能的区别在于,前者能够明确告诉人类,人工智能算法作决定的具体原因。
SOCOM指出,未来战争快速响应的要求意味着人工智能与人工智能需进行对话,作出可能没有人类监督的决定。与传统的需算法工程师作出编码解释一样,未来的人工智能算法必须向用户解释其决策的依据,这也是未来赢得由人工智能主导的战争的关键。
SOCOM希望改进的领域之一是“语义层”,即指挥人员可用通俗语言进行数据交联。现有的人工智能应用与交互是为数据科学家量身定制的。但高级计算不应该只是工程师的专利,它应该与战场上的指控人员/作战人员等“领域专家”有效融合。
为了实现这一点,SOCOM需要一种更好的方法来通知指挥中心,并融合多个平台/来源的情报数据。在指挥控制方面,首先需要一种快速的方法来掌握作战人员和后勤的状况。指控人员必须通过全域态势数据融合,全面掌握整个战场的态势信息。在这一过程中,任务指挥系统必须有一个内置的/开放式的应用编程接口,并实现实时情报数据的融合。
另外,SOCOM指出,混合云概念提供了上述问题的另一种解决方案。但由于政府在云服务方面引入了数家供应商,软件和应用开发商需要在他们的产品中加入指挥中心在多个云上运行的方法。