ToB企服应用市场:ToB评测及商务社交产业平台

标题: 【机器学习】K-means聚类分析 [打印本页]

作者: 涛声依旧在    时间: 2022-8-20 22:37
标题: 【机器学习】K-means聚类分析
前言

聚类问题是无监督学习的问题,算法思想就是物以类聚,人以群分,聚类算法感知样本间的相似度,进行类别归纳,对新输入进行输出预测,输出变量取有限个离散值。本次我们使用两种方法对鸢尾花数据进行聚类。
K-means 聚类算法

K-means聚类算法(k-均值或k-平均)聚类算法。算法思想就是首先随机确定k个中心点作为聚类中心,然后把每个数据点分配给最邻近的中心点,分配完成后形成k个聚类,计算各个聚类的平均中心点,将其作为该聚类新的类中心点,然后迭代上述步骤知道分配过程不在产生变化。
算法流程

优缺点

优点:
缺点:
鸢尾花聚类

数据集

数据集:数据集采用sklern中的数据集
数据集分布图:我们可以看出数据的大致分布情况

使用sklearn中的模型
  1. # 鸢尾花数据集 150 条数据
  2. ## 导包
  3. import numpy as np
  4. import matplotlib.pyplot as plt
  5. # 导入数据集包
  6. from sklearn import datasets
  7. from sklearn.cluster import KMeans
  8. ## 加载数据据集
  9. iris = datasets.load_iris()
  10. X = iris.data[:,:4]
  11. print(X.shape)  # 150*4
  12. ## 绘制二维数据分布图
  13. ## 前两个特征
  14. plt.scatter(X[:,0],X[:,1],c='red',marker='o',label='see')
  15. plt.xlabel('sepal length')
  16. plt.ylabel('sepal width')
  17. plt.legend(loc=2)
  18. plt.show()
  19. '''
  20. 直接调用包
  21. '''
  22. ## 实例化K-means类,并定义训练函数
  23. def Model(n_clusters):
  24.     estimator = KMeans(n_clusters=n_clusters)
  25.     return estimator
  26. ## 定义训练韩硕
  27. def train(estimator):
  28.     estimator.fit(X)
  29. ## 训练
  30. estimator = Model(3)
  31. ## 开启训练拟合
  32. train(estimator=estimator)
  33. ## 可视化展示
  34. label_pred = estimator.labels_ # 获取聚类标签
  35. ## 找到3中聚类结构
  36. x0 = X[label_pred==0]
  37. x1 = X[label_pred==1]
  38. x2 = X[label_pred==2]
  39. plt.scatter(x0[:,0],x0[:,1],c='red',marker='o',label='label0')
  40. plt.scatter(x1[:,0],x1[:,1],c='green',marker='*',label='label1')
  41. plt.scatter(x2[:,0],x2[:,1],c='blue',marker='+',label='label2')
  42. plt.xlabel('sepal length')
  43. plt.ylabel('sepal width')
  44. plt.legend(loc=2)
  45. plt.show()
复制代码
聚类结果

我们可以看出聚类结果按照我们的要求分为了三类,分别使用红、蓝、绿三种颜色进行了展示!
聚类效果图:

手写K-means算法

[code]# 鸢尾花数据集 150 条数据## 导包import numpy as npimport matplotlib.pyplot as plt# 导入数据集包from sklearn import datasetsfrom sklearn.cluster import KMeans## 加载数据据集iris = datasets.load_iris()X = iris.data[:,:4]print(X.shape)  # 150*4## 绘制二维数据分布图## 前两个特征plt.scatter(X[:,0],X[:,1],c='red',marker='o',label='see')plt.xlabel('sepal length')plt.ylabel('sepal width')plt.legend(loc=2)plt.show()'''直接手写实现''''''1、随机初始化 随机寻找k个簇的中心2、对这k个中心进行聚类3、重复1、2,知道中心达到稳定'''### 欧氏距离计算def distEclud(x,y):    return np.sqrt(np.sum((x-y)**2))### 为数据集定义簇的中心def randCent(dataSet,k):    m,n = dataSet.shape    centroids = np.zeros((k,n))    for i in range(k):        index = int(np.random.uniform(0,m))        centroids[i,:] = dataSet[index,:]    return centroids## k均值聚类算法def KMeans(dataSet,k):    m = np.shape(dataSet)[0]    clusterAssment = np.mat(np.zeros((m,2)))    clusterChange = True    ## 1 初始化质心centroids    centroids = randCent(dataSet,k)    while clusterChange:        # 样本所属簇不在更新时停止迭代        clusterChange = False        # 遍历所有样本        for i in range(m):            minDist = 100000.0            minIndex = -1            # 遍历所有质心            # 2 找出最近质心            for j in range(k):                distance = distEclud(centroids[j,:],dataSet[i,:])                if distance




欢迎光临 ToB企服应用市场:ToB评测及商务社交产业平台 (https://dis.qidao123.com/) Powered by Discuz! X3.4