深度学习的可解释性
吴飞 廖彬兵 韩亚洪 · 2019
收藏
阅读量:101
期刊名称:
航空兵器   2019 年 01 期
摘要:
深度学习已经成功运用在自然语言、多媒体、计算机视觉、语音和跨媒体等相关的特定领域。然而,这一架构在"端到端"模式下、通过标注大量数据来进行误差后向传播而优化参数的学习方法被比喻为一个"黑盒子",解释性较弱。可解释性指算法要对特定任务给出清晰概括,并与人类世界中已定义的原则或原理联结。在诸如自动驾驶、医疗和金融决策等"高风险"领域,利用深度学习进行重大决策时,往往需要知晓算法所给出结果的依据。因此,透明化深度学习的"黑盒子",使其具有可解释性,具有重要意义。围绕深度学习可解释性这一问题,本文从卷积神经...
相关专家
相关课题