可解释性已成为深度学习广泛应用的关键挑战,尤其是在那些人工智能决策可能对人类生活产生深远影响的领域(例如医疗、金融)中。本教程将概述两种主要的可解释性方法,并讨论它们各自的优势与局限性:
事后可解释性:解释现有模型的方法。 设计时可解释性:构建本身具有可解释性的模型的方法。