K-means 算法是一種非常流行的無監督學習方法,主要應用於聚類問題。本篇部落格將詳細介紹 K-means 算法的原理、優缺點及實際應用場景。
算法原理#
K-means 算法的核心思想是將資料劃分為 K 個獨立的簇 (cluster),使得每個簇內的資料點距離盡可能小,而簇與簇之間的距離盡可能大。下面是 K-means 算法的具體步驟:
-
初始化:選擇 K 個資料點作為初始質心(centroid),這些質心可以是隨機選擇的,也可以是通過其他方法選定的。
-
分配:將每個資料點分配到離它最近的質心所代表的簇中。
-
更新:重新計算每個簇的質心,方法是將簇內所有資料點的均值作為新的質心。
-
重複步驟 2 和 3,直到質心不再發生顯著變化或達到迭代次數上限。
優點#
K-means 算法具有以下優點:
-
簡單易懂:K-means 算法的步驟簡單,容易理解和實現。
-
計算效率高:K-means 算法的時間複雜度相對較低,適用於大規模資料集。
-
可擴展性強:K-means 算法可以通過各種改進和優化應用於不同類型的資料和問題。
缺點#
K-means 算法也存在一些局限性:
-
需要預先指定 K 值:在實際應用中,選定合適的 K 值可能需要嘗試多種方法。
-
對初始質心敏感:算法的結果可能受到初始質心選擇的影響,導致局部最優解。
-
對噪音和離群點敏感:K-means 算法容易受到噪音和離群點的影響,可能導致簇劃分不準確。
-
對簇形狀和大小敏感:K-means 算法假設簇是凸的和大小相似的,對於其他形狀和大小的簇可能效果不佳。
程式碼實現#
下面是使用 Python 和 NumPy 實現 K-means 算法的簡單示例:
import numpy as np
def initialize_centroids(data, k):
# 從資料集中隨機選擇k個點作為初始質心
centroids = data[np.random.choice(data.shape[0], k, replace=False)]
return centroids
def assign_clusters(data, centroids):
# 計算資料點與質心之間的距離,並將資料點分配給最近的質心
distances = np.linalg.norm(data[:, np.newaxis] - centroids, axis=2)
cluster_labels = np.argmin(distances, axis=1)
return cluster_labels
def update_centroids(data, cluster_labels, k):
# 計算每個簇的新質心,即簇內資料點的均值
new_centroids = np.array([data[cluster_labels == i].mean(axis=0) for i in range(k)])
return new_centroids
def kmeans(data, k, max_iterations=100, tol=1e-4):
# 初始化質心
centroids = initialize_centroids(data, k)
for _ in range(max_iterations):
# 分配簇
cluster_labels = assign_clusters(data, centroids)
# 更新質心
new_centroids = update_centroids(data, cluster_labels, k)
# 檢查收斂條件
if np.linalg.norm(new_centroids - centroids) < tol:
break
centroids = new_centroids
return centroids, cluster_labels
# 示例:使用K-means算法對隨機生成的資料進行聚類
np.random.seed(42)
data = np.random.rand(300, 2) # 生成300個二維資料點
k = 3 # 聚類數量
centroids, cluster_labels = kmeans(data, k)
print("質心:\n", centroids)
print("簇標籤:\n", cluster_labels)
請注意,這是一個簡化的實現,僅用於演示 K-means 算法的基本原理。在實際應用中,建議使用成熟的機器學習庫,如 scikit-learn,以獲得更穩定、高效的實現和額外的功能。
改進方法及變體#
針對 K-means 算法的局限性,有以下改進方法:
-
選擇合適的 K 值:可以嘗試不同的 K 值,通過輪廓係數(Silhouette Coefficient)、肘部法則(Elbow Method)等方法評估聚類效果,選擇最佳的 K 值。
-
優化初始質心選擇:使用 K-means++ 算法改進初始質心選擇,降低算法收斂到局部最優解的風險。
-
增量式 K-means:對於大規模資料集,可以採用增量式 K-means 算法進行分佈式計算,提高計算效率。
-
引入核函數:將 K-means 算法擴展為 Kernel K-means 算法,使用核函數將資料映射到高維空間,處理非線性可分的資料。
K-means++#
K-means++ 是一種改進的 K-means 算法,主要針對初始質心選擇的問題。K-means++ 的優勢在於能夠選擇更好的初始質心,從而提高算法的收斂速度,降低陷入局部最優解的風險。K-means++ 的初始質心選擇步驟如下:
-
從資料集中隨機選擇一個點作為第一個質心。
-
對於資料集中的每個點,計算它與當前已選擇質心的最近距離。
-
以距離的平方作為權重,按照概率分佈隨機選擇下一個質心。
-
重複步驟 2 和 3,直到選擇了 K 個質心。
-
使用選定的初始質心運行 K-means 算法。
增量式 K-means#
增量式 K-means(Incremental K-means)也稱為在線 K-means,是針對大規模資料集的一種改進算法。與傳統的 K-means 算法不同,增量式 K-means 每次只處理一個資料點,不斷更新質心,而不是一次性處理整個資料集。這種方法適用於分佈式計算和大規模資料集,可以大大提高計算效率。增量式 K-means 的主要步驟如下:
-
初始化 K 個質心。
-
遍歷資料集,對每個資料點執行以下操作:
-
計算該點與當前質心的最近距離,將其分配到最近的簇。
-
更新被分配到的簇的質心。
-
-
重複步驟 2,直到質心穩定或達到迭代次數上限。
Kernel K-means#
Kernel K-means 是一種基於核方法的 K-means 算法,可以處理非線性可分的資料。核方法通過將資料映射到高維特徵空間,使得原本在低維空間中不可分的資料在高維空間中變得線性可分。Kernel K-means 的主要步驟如下:
-
選擇合適的核函數(如 RBF 核、多項式核等)和參數。
-
將資料集映射到高維特徵空間。
-
在高維特徵空間中執行 K-means 算法。
-
將聚類結果投影回原始資料空間。
Kernel K-means 可以處理複雜的資料結構,但計算複雜度相對較高,可能不適合大規模資料集。在實際應用中,可以根據問題的特點選擇合適的 K-means 算法變體。
應用場景#
K-means 算法廣泛應用於各個領域,如:
-
圖像分割:將圖像中的像素聚類為 K 個簇,可以實現圖像分割和簡化。
-
文件聚類:將文件按照內容相似度進行聚類,有助於文件分類、信息檢索和推薦系統。
-
客戶細分:將客戶按照購買行為、興趣愛好等特徵進行聚類,有助於企業針對不同群體制定個性化的營銷策略。
-
異常檢測:通過聚類,可以發現資料中的離群點或異常點,進而進行異常檢測或資料清洗。
-
降維:K-means 算法可以與主成分分析(PCA)等降維技術結合,實現資料降維和可視化。