告别AI模型黑盒子:可解释的神经网络研究(一)

你是否曾被无理拒绝贷款而烦恼????你是否怀疑过自己的汽车自动驾驶的安全性????你说这种药物能治疗肺癌,,为什么呢??种种怀疑充斥在科学研究、、金融市场等领域。。。众所周知,,,机器学习模型,,如神经网络,,,,深度神经网络等,,有非常不错的预测能力,,,但是让人信任一个模型的结果除了有良好的精度之外,,,,可解释性也是一个重要的因素。。。本文将介绍机器学习模型可解释性的定义、、性质和方法,,并在后续的文章中,,,,着重介绍不同解释模型的方法,,力求在维持模型精度的同时,,,通过更好的解释模型方法,,,,提高模型的可解释性,,,从而提高人们对模型和模型结果的信任和接受程度。。

立即体验,,开启数字化转型之旅 !

站点地图