ToB企服应用市场:ToB评测及商务社交产业平台

标题: 二十、【呆板学习】【非监督学习】- 均值漂移 (Mean Shift) [打印本页]

作者: 勿忘初心做自己    时间: 2024-7-27 10:14
标题: 二十、【呆板学习】【非监督学习】- 均值漂移 (Mean Shift)

系列文章目录

第一章 【呆板学习】初识呆板学习
第二章 【呆板学习】【监督学习】- 逻辑回归算法 (Logistic Regression)
第三章 【呆板学习】【监督学习】- 支持向量机 (SVM)
第四章【呆板学习】【监督学习】- K-近邻算法 (K-NN)
第五章【呆板学习】【监督学习】- 决策树 (Decision Trees)
第六章【呆板学习】【监督学习】- 梯度提升机 (Gradient Boosting Machine, GBM)
第七章 【呆板学习】【监督学习】-神经网络 (Neural Networks)
第八章【呆板学习】【监督学习】-卷积神经网络 (CNN)
第九章【呆板学习】【监督学习】-循环神经网络 (RNN)
第十章【呆板学习】【监督学习】-线性回归
第十一章【呆板学习】【监督学习】-局部加权线性回归 (Locally Weighted Linear Regression, LWLR)
第十二章【呆板学习】【监督学习】- 岭回归 (Ridge Regression)
十三、【呆板学习】【监督学习】- Lasso回归 (Least Absolute Shrinkage and Selection Operator)
十四、【呆板学习】【监督学习】- 弹性网回归 (Elastic Net Regression)
十五、【呆板学习】【监督学习】- 神经网络回归 
十六、【呆板学习】【监督学习】- 支持向量回归 (SVR)
十七、【呆板学习】【非监督学习】- K-均值 (K-Means) 
十八、【呆板学习】【非监督学习】- DBSCAN (Density-Based Spatial Clustering of Applications with Noise)

目录
系列文章目录
一、非监督学习
(一)、定义
(二)、训练流程
(三)、基本算法分类
 二、均值漂移 (Mean Shift)
(一)、定义
(二)、基本概念
(三)、训练过程
1. 初始化
2. 计算偏移向量
3. 更新点的位置
4. 迭代
5. 应用于所有数据点
6. 形成聚类
7. 聚类后处理
8.留意事项
(四)、特点
(五)、实用场景
(六)、扩展
三、总结

一、非监督学习

(一)、定义

        非监督学习是一种呆板学习方法,它处理的是没有标签的数据集。与监督学习差别,非监督学习算法不需要知道数据的正确分类或目标值。它的目标是通过数据内部的结构和模式来推断出有意义的信息,如数据的分布、聚类、降维或非常检测等。
(二)、训练流程

        非监督学习的训练流程通常包含以下几个步骤:
(三)、基本算法分类

        非监督学习算法可以大致分为以下几类:
        非监督学习在很多场景中都有广泛应用,如客户细分、图像识别、自然语言处理、生物信息学和保举体系等。由于其机动性和在处理大量未标注数据时的上风,非监督学习是数据科学和人工智能领域的重要组成部分。

 二、均值漂移 (Mean Shift)

(一)、定义

     均值漂移算法是一种无监督学习方法,最初由 Fukunaga 和 Hostetler 在 1975 年提出。它是一种基于密度的聚类算法,用于估计数据的模式(局部最大值),而且不需要事先指定聚类的数量。均值漂移算法在图像处理、计算机视觉、目标跟踪和数据发掘等领域有着广泛的应用。
(二)、基本概念

     均值漂移算法的核心思想是使用数据点的密度来确定聚类中央。算法假设数据点在高密度地区附近聚集,而且这些高密度地区的中央代表了潜在的聚类中央。算法通过迭代地将数据点移动到其邻域内其他点的平均位置(质心)来实现这一点,从而徐徐“漂移”至高密度地区的中央。
(三)、训练过程

     均值漂移算法是一种迭代的、基于密度的聚类方法,它能够主动检测数据的高密度地区并确定这些地区的中央,即模式。下面是均值漂移算法的详细训练步骤:
1. 初始化


2. 计算偏移向量