现代机器学习模型,如神经网络,通常被称为“黑箱”,因为它们非常复杂,即使是设计它们的研究人员也无法完全理解它们是如何进行预测的。为了提供一些见解,研究人员使用解释方法,试图描述单个模型决策。例如,他们可能会突出显示电影评论中影响模特判断评论为正面的词语。未来,在这项工作的基础上,研究将可理解性的概念扩展到其他标准和解释形式,如反事实解释(表明如何修改输入以改变模型预测)。目前,他们专注于特征归因方法,该方法描述了一个模型用于做出决策的各个特征(如电影评论中的词语)。此外,研究还希望进一步增强框架和用户界面,以便人们能够更快地创建规则。编写规则可能需要数小时的人力参与,而一定程度的人力参与至关重要,因为人类最终必须能够理解解释,但人工智能的帮助可以简化这一过程。

  资讯来源:http://news.mit.edu/