打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
遇到黑盒模型,你会选择什么方法来解释呢?小编给大家整理了一些常用技术~
人工智能或机器学习固然很香,但也不是毫无缺点。这最为人头疼的就是其'黑盒'问题,即模型预测性能可能固然很高,但是由于模型过于复杂,无法解释其到底是怎么产生预测结果的!遇到这种'黑盒'模型,都有哪些常见方法可以搞定呢?

在谈论'黑盒'模型前,先谈谈'白盒'模型,也就是模型很容易为人所理解。这其中用最多的就是回归模型了,比如多元线性回归、logistic回归、Cox回归等。回归为啥可解释性好呢?因为回归模型可以提供回归系数,其反映了该解释变量对被解释变量的影响大小。除了回归,机器学习中也有一小撮模型具有比较好的可解释性,比如决策树就是最经典的,其每一条决策路径都是十分形象的。

下面,列举几种最常用的'黑盒'模型可解释性技术,供各位参考。各种技术的详细解读,可参阅往期推文或文献资料。
本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
今天来聊一聊可信机器学习
机器学习需要面对的两大问题:泛化性和可信性
集大成者!可解释人工智能(XAI)研究最新进展万字综述论文: 概念体系机遇和挑战—构建负责任的人工智...
推荐|深度学习可视化分析发展概览
图像生成与修复技术的深度学习方法研究与应用
多类型上下文项集合负向采样方法对于人工智能技术的发展
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服