打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
[机器学习]机器学习笔记整理07

算法描述

步骤

  1. 为了判断未知实例的类别,以所有已知类别的实例作为参照

  2. 选择参数K

  3. 计算未知实例与所有已知实例的距离

  4. 选择最近K个已知实例

  5. 根据少数服从多数的投票法则(majority-voting),让未知实例归类为K个最邻近样本中最多数的类别

细节

关于K

关于距离的衡量方法:

Euclidean Distance 定义


其他距离衡量:余弦值(cos), 相关度 (correlation), 曼哈顿距离 (Manhattan distance)

举例

如图所示K不同时问号可以分别属于绿色蓝色红等类别.

算法优缺点

法优点

  1. 简单

  2. 易于理解

  3. 容易实现

  4. 通过对K的选择可具备丢噪音数据的健壮性

算法缺点

  1. 需要大量空间储存所有已知实例

  2. 算法复杂度高(需要比较所有已知实例与要分类的实例)

  3. 当其样本分布不平衡时,比如其中一类样本过大(实例数量过多)占主导的时候,新的未知实例容易被归类为这个主导样本,因为这类样本实例的数量过大,但这个新的未知实例实际并木接近目标样本,如Y点

注意Y点的

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
100天搞定机器学习|Day7 K-NN
机器学习算法与Python实践之(一)k近邻(KNN)
机器学习十七:感知机
真香警告!用 Python 实现 KNN 算法也太简单了吧
一个超强算法模型,KNN !!
为什么聚类算法经常使用kmeans或者层次聚类?
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服