打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
ML与Information:机器学习与Information信息论之间那些七七八八、乱七八糟、剪不断理还乱的关系攻略

ML与Information:机器学习与Information信息论之间那些七七八八、乱七八糟、剪不断理还乱的关系攻略


ML与信息论

更新……

ML与熵

1、熵的基础知识

(1)、相对熵:两个KL散度的区别:
1)、绿色曲线是真实分布p的等高线;红色曲线是使用近似p(z1,z2)=p(z1)p(z2)得到的等高线。
2)、蓝色曲线是真实分布p的等高线;红色曲线是单模型近似分布q的等高线。

(2)各种熵之间的关系图


2、熵与分布的关系

(1)、两点分布的熵


(2)、三点分布的熵

3、最大熵模型与Logistic/Softmax回归

Logistic/Softmax回归的后验概率


最大熵模型的后验概率

相关文献推荐

《A Brief MaxEnt Tutorial》 Adam Berger
《A simple Introduction to Maximum Entropy Models for Natural Language Processing》Adwait Ratnaparkhi
《Learning to parse natural language with maximum entropy models》 Adwait Ratnaparkhi
《统计学习方法》李航,清华大学出版社,2012年
《Elements of Information Theory》 Cover & Thomas
《A maximum entropy approach to natural language processing 》Adam Berger

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
机器学习的数学基础 - 信息论
深度学习、信息论与统计学
《熵;耗散结构》文摘/《从混沌到有序》-
条件熵
在深度学习中,必须要懂的4个信息论的概念
基于信息论的校准技术,CML让多模态机器学习更可靠
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服