打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
多变量线性回归基础

吴恩达在人工智能算法课程中,提到了多维特征。

矩阵其实是工具,帮助计算多元函数的解。这里的h(x)的含义,就一目了然了。

梯度下降是一个用来求函数最小值的算法,我们将使用梯度下降算法来求出代价函数 J(θ 0 ,θ 1 ) 的最小值。

梯度下降背后的思想是:开始时我们随机选择一个参数的组合(θ 0 ,θ 1 ,...,θ n),计算代价函数,然后我们寻找下一个能让代价函数值下降最多的参数组合。我们持续这么做直到到到一个局部最小值(local minimum),因为我们并没有尝试完所有的参数组合,所以不能确定我们得到的局部最小值是否便是全局最小值(global minimum),选择不同的初始参数组合,可能会找到不同的局部最小值。

梯度下降函数

通常可以考虑尝试些学习率: α=0.01,0.03,0.1,0.3,1,3,10

当分类算法,像逻辑回归算法,我们会看到, 实际上对于那些算法,并不能使用标准方程法。对于那些更复杂的学习算法,我们将不得不仍然使用梯度下降法。因此,梯度下降法是一个非常有用的算法,可以用在有大量特征变量的线性回归问题。但对于这个特定的线性回归模型,标准方程法是一个比梯度下降法更快的替代算法。所以,根据具体的问题,以及你的特征变量的数量,这两种算法都是值得学习的。

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
机器学习笔记 Week3 逻辑回归
Lasso回归算法:坐标轴下降法与最小角回归法小结
R语言梯度下降和牛顿法
详解梯度下降法求解线性模型参数
逻辑回归算法背后的数学
4.机器学习之逻辑回归算法
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服