可解释性人工智能技术在军事深度学习中应用探索研究
预算 双方协商
基本信息
地区: 浙江省 宁波市 鄞州区
需求方: 宁波***公司
行业领域
航空航天技术
需求描述
1、需要解决的主要技术问题: (1)深度学习算法局部可解释性方法研究:局部可解释性的关键在于对个案采用特定化、情景化的解释方法,让AI系统的用户群体能够充分接收并理解特定决策的生成路径,研究如何剖析算法模型的决策依据的规则、主要参考因素、各类因素的权重占比、决策中参考或者引用的信息来源等。(2)深度学习算法全局可解释性方法研究:全局可解释性方法研究是为了解释模型的全局输出,需要训练模型了解算法和数据。从整体的维度看,可解释性AI在对具体个案做出决策时,也要基于AI本身系统特征进行适用,所有特定化的决策都离不开AI的整体功用,包括算法类型、自动决策程序、可控范围、相关数据库等基本要素。2、需求提出背景及主要应用领域方向:人工智能和机器学习在计算机视觉、自然语言处理、智能体策略等研究领域都取得了突破,并逐渐融入人的生活,虽然这些算法对于很多问题具有良好表现,但由于算法缺乏可解释性,模型实际使用中常受质疑,尤其在安全敏感的应用领域,如自动驾驶、医疗、航空航天等缺乏可解释性的问题已经成为当前人工智能发展的瓶颈问题。XAI(人工智能可解释性)是一个研究领域,重点是确保人工智能系统的推理和决策可以向人类用户解释。在军事背景下,这种解释通常是为了确保:(1)人类用户对他们操作的人工智能系统有适当的心智模型;(2)专家可以从人工智能系统及其隐藏的战术和战略行为中获得洞察力并提取知识;(3)人工智能系统遵守国际和国家法律;(4)开发人员甚至在部署前就能发现人工智能系统的缺陷和漏洞。3、技术难点:透明度:人工智能过程复杂,很难将其从模糊处理的黑盒子中移出。因果关系:AI基于数据进行决策时,其背后的推理关系如何挖掘与建模,对潜在的活动的推论和解释的正确性缺乏判断手段。4、对主要技术指标、成本等有关要求:1)全局可解释性方法不少于6种;2)局部可解释性方法不少于6种;3)实现不少于6种主流算法的解释;4)不少于4种解释性算法评估方法;

Copyright © 2022 中国科学技术协会 版权所有 | 京ICP备16016202号-20
Copyright © 2022 中国科学技术协会 版权所有 | 京ICP备16016202号-20