打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
Logistic回归

在之前我已经写了一篇关于线性回归的文章,今天给大家带来另一个重要的回归分类算法----逻辑回归 逻辑回归考虑的数值情况不同与线性回归,根据问题中随机变量的不同种类而选择不同的分类算法

线性回归主要用于解决连续型数值的问题 逻辑回归主要用于解决离散型数值问题

那么什么样的数值是连续型?什么是离散型? 首先我们要知道随机变量分为离散型和连续型,然后我们给出其定义:

如果随机变量X只可能取有限个或至多可列个值,则称X为离散型随机变量 能按一定次序一一列出,其值域为一个或若干个有限或无限区间,这样的随机变量称为离散型随机变量

在离散型问题中我们考虑最多的就是二元离散,也就是情况为正或者为负,我们将其记为1和0

就像下面这样

统计出数值结果后想对其进行分类,从而能够预测出一个新的x点应该是1还是0,发现很难使用一条直线去准确预测出这个分类线 最终,经过一堆数学家的努力,发现了一个非常适合离散型数值的函数

通过改变函数的参数,我们最终可以找到一个适合我们数据的一条线,然后,我们通过求出这个点的概率来预测最终结果,也就是给出一个参数x,我们通过求出y=1的概率,来预测结果

如上所示给出一个x值最终求出其y=1的概率我0.7,那么我们就可以预测出其值为1,如果求得概率为0.3的话我们就认为其值应该为0,而这里判断的概率阈值就是0.5,当概率大于等于0.5认为结果为1,否则为0

这里的阈值有一个专属名词为Decision Boundary(决策边界) 这里的决策边界就是日常中所说的分界线(学生时代的38线)

由上我们发现决策边界的选择各种各样,那么我们如何找出最适合的边界呢? 根据我们的函数,问题总结为如何找出最适合的参数Θ?

很显然,老套路,我们先算出其代价函数J(Θ),然后最小化J就行 而逻辑回归中的代价函数和之前中的线性回归的代价函数是相同的,

而和线性回归不同的就是H(Θ)的不同,而由于逻辑回归中y=1 or y=0 因此概况为

因此不同于线性回归,逻辑回归的代价函数

最后我们通过极大似然法简化代价函数

现在我们得到了代价函数,接下来我们将其最小化求出Θ

首先使用梯度下降法: 方法就是一如既往的对其求导找出下降最快的方向然后去下降 这次我们可以不用梯度下降法,我们找到其他优化算法:共轭梯度

使用共轭梯度时我们不用去手动选择下降速度α,因为共轭梯度会自动帮我们找出最优α,而且共轭梯度的速度更快,这些优点也保证了其复杂度,但是往往第三方库已经帮我们实现了这些算法,我们只需要知道如何去调用就行

上面我们拥有一个有两个参数的问题,我们知道了其代价函数J(Θ),我们想求求其最小化函数,右边是在Octave里直接调用一个函数来返回我们的代价函数,这个函数返回两个参数,jVal是代价函数,第二个参数是Θ 现在我们在下面使用无约束最小化函数来使J最小化,调用这个函数需要设置一下参数,@costFunction是我们刚刚定义的costFunction函数的指针,,optiojns中GradObj,'on'为设置梯度目标参数为打开,然后函数就可以自动实现求最优α,maxiter,100为设置最大迭代此数为100,然后initialtheta为我们设置的基础Θ值 最后这个函数会返回一组我们需要的,openTheta为最优Θ,functionVal为我们最后的代价函数值,而exitFlag值确定是否收敛,1为收敛参考文献:K码农-http://kmanong.top/kmn/qxw/form/home?top_cate=28

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
Theano深度学习入门
机器学习——正则化
多变量线性回归基础
CTA投资与程序化交易:现代研究方法(二)参数寻优技巧:经验、抽样、局部平滑和移动平滑
【机器学习系列】斯坦福课程
机器学习中的数学基础
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服