打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
进军机器学习--序言

我们之所以建模, 主要的价值在于预测. 学习统计时, 看到各种模型,
线性回归,多元线性回归, 曲线回归等等, 都是为了建模.

但是模型是否好呢? 我们可以查看R方, 调和R方.

机器学习的到来, 为统计打开了另一扇大门. 交叉验证, 查看预测准确度.

如果说现代统计学是一门循序渐进, 系统完善的科学, 机器学习则是各种流派,
黑猫白猫抓到老鼠就是好猫. 英雄不问出处.

机器学习的到来, 让结果说话, 而不是所谓的逻辑或者假定. 存在的就是合理的,
路径可能没有发现, 终究会发现. 有可能是另一个语言系统中了.

模拟一套数据¶

In [4]:

f = function(x) 3 + 2*x x = rnorm(100) y = f(x) + 0.5*rnorm(100) dat =data.frame(x=x,y=y) head(dat)

x            y


0.7656238    4.5241703
 -1.2045951   0.1475003
 1.8686146    6.6297829
 0.7531363    4.9709326
 -0.6847217   1.7381070
 -0.7545989   1.4639742

使用数据还原x和y的关系¶

In [5]:

mod = lm(y~x) summary(mod) Call: lm(formula = y ~ x) Residuals:     Min       1Q   Median       3Q      Max -0.89810 -0.33549  0.01217  0.30443  1.03068 Coefficients:            Estimate Std. Error t value Pr(>|t|)     (Intercept)  2.99220    0.04318   69.29   <2e-16 *** x            1.90101    0.04506   42.19   <2e-16 *** --- Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Residual standard error: 0.4266 on 98 degrees of freedom Multiple R-squared:  0.9478,    Adjusted R-squared:  0.9473 F-statistic:  1780 on 1 and 98 DF,  p-value: < 2.2e-16

模型参数

In [6]:

coef(mod)

(Intercept)
:   2.99220004612752
x
:   1.9010058887296

公式: $$ y = 2.99 + 1.90*x $$

可以看出来, 通过数据还原x和y的关系, 和真是的x和y的关系比较接近.

作图: 数据和模型的关系¶

In [7]:

plot(x,y,main="this is a plot") abline(coef(mod),col="blue")

使用构建好的模型预测¶

预测x=-1和0.5时y的值

In [8]:

predict(mod,list(x=c(-1,0.5)),se.fit = TRUE)

$fit
:   1
   :   1.09119415739792
   2
   :   3.94270299049232

$se.fit
:   1
   :   0.0670845693041622
   2
   :   0.0454934964906985

$df
:   98
$residual.scale
:   0.426558713436954

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
用R语言做数据分析——Logistic回归
R语言数据挖掘实践——用线性回归预测消费价格指数
过度离势
R语言在逻辑回归中求RsquareR方
机器学习中的时间序列预测概述
通俗易懂
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服