聚類:在數據中識別相似行的技術
聚類與分類:區別數據有無標度
聚類技術:
K-MEANS,DBSCAN,OPTICS,etc
數據包
library("tidyverse")
library("mlr")
pacman::p_load(mlr3,mlr3cluster,mlr3viz,GGally,mlr3tuning,mlr3learners)
theme_set(theme_bw())
一、K-MEANS
隨機選取K個對象作為初始的聚類中心,把每個對象分配給距離它最近的聚類中心,聚類的聚類中心會根據聚類中現有的對象被重新計算,這個過程將不斷重復直到滿足某個終止條件。
優點:①每次迭代時候點可在聚類間移動 ② 多變量時的計算速度可能比其他算法更快 ③有效率且不容易受到初始值的影響。
缺點:①不能處理不同尺寸,不懂密度的簇 ②由于初始中心點的隨機性,每次聚類可能略有區別 ③離群值會有較大干擾(一定要在預處理時剔除掉) ④不能處理非球形簇。
參數:
centers:中心點選擇參數,表示聚成幾類
iter.max:迭代次數,默認10次
algorithm:算法選擇的參數
常見算法:
1、Lloyd 算法:批處理或離線算法。
選擇k個中心,在特征空間中隨機初始化k個中心,對每行計算其和每個中心之間的距離,將各行分配到最近中心點的簇中,將每個中心移動到其所在簇的平均值處。
重復步驟,直到沒有行改變簇或到最大迭代次數。
2、MacQueen 算法:增量或在線算法。
選擇k個中心,在特征空間中隨機初始化k個中心,將各行按距離分配到最近中心點的簇中,將每個中心移動到其所在簇的平均值處。
對每行,與各中心計算距離并分配到最近中心點的簇中,若有行換簇,則更新中心,每行處理完后,更新所有中心點。
若沒有行改變簇則停止,否則重復步驟。
3、Hartigan-Wong 算法。
選擇k個中心,在特征空間中隨機初始化k個中心,將各行按距離分配到最近中心點的簇中,將每個中心移動到其所在簇的平均值處。
對每行,計算其在每簇時的SSE,并分到到SSE最小的簇中,若有行換簇,則更新中心。
若沒有行改變簇則停止,否則重復步驟。
【例題】
data(GvHD, package = "mclust")
gvhd1 <- as_tibble(GvHD.control)
gvhd1scale <- gvhd1 %>% scale()
ggpairs(GvHD.control,
upper = list(continuous = "density"),
lower = list(continuous = wrap("points", size = 0.4)),
diag = list(continuous = "densityDiag"))
選擇K
gvhdTask <- makeClusterTask(data = as.data.frame(gvhd1scale))
listLearners("cluster")$class
kMeans <- makeLearner("cluster.kmeans", par.vals = list(iter.max = 100, nstart = 10))
kMeansPar <- makeParamSet(
makeDiscreteParam("centers", values = 3:8),
makeDiscreteParam("algorithm", values = c("Hartigan-Wong", "Lloyd", "MacQueen")))
gridSearch <- makeTuneControlGrid()
kFold <- makeResampleDesc("CV", iters = 10)
tunedK <- tuneParams(kMeans, task = gvhdTask,
resampling = kFold,
par.set = kMeansPar,
control = gridSearch,
measures = list(db, G1))
比較算法
kMeansTuningData$data
longTuningData <- pivot_longer(kMeansTuningData$data,
c(3,4,6), names_to = "Metric", values_to = "Value")
ggplot(longTuningData, aes(centers, Value, col = algorithm)) +
facet_wrap(~ Metric, scales = "free_y") +
geom_line()
訓練模型
tunedKMeans <- setHyperPars(kMeans, par.vals = tunedK $ x)
tunedKMeansModel <- train(tunedKMeans, gvhdTask)
kMeansModelData <- getLearnerModel(tunedKMeansModel)
kMeansModelData$iter
gvhd1 <- gvhd1 %>% mutate(
kMeansCluster = as.factor(kMeansModelData$cluster))
ggpairs(gvhd1, aes(col = kMeansCluster),
upper = list(continuous = "density"))
預測新數據
newCell <- tibble(CD4 = 510, CD8b = 26, CD3 = 500, CD8 = 122) %>%
scale(center = attr(gvhd1scale,"scaled:center"),
scale = attr(gvhd1scale, "scaled:scale")) %>%
as_tibble()
predict(tunedKMeansModel, newdata = newCell)
https://blog.csdn.net/hfutxiaoguozhi/article/details/78828047
二、DBSCAN
數據包
library("tidyverse")
library("mlr")
library("GGally")
library("dbscan")
library("fpc")
【例題】
數據及超參數范圍
data(banknote, package = "mclust")
bnTib <- select(banknote, -Status) %>% as_tibble()
bnScaled <- bnTib %>% scale()
ggpairs(bnTib, upper = list(continuous = "density"))
kNNdistplot(bnScaled, k = 5)
abline(h = c(1.2, 2.0))
dbsParSpace <- expand.grid(eps = seq(1.2, 2.0, 0.1), minPts = 1:9)
bnDbs <- pmap(dbsParSpace, dbscan, x = bnScaled)
bnDbs[[11]]
三、OPTICS
考試重點:
1、可視化:對數據變形
2、降維
3、聚類(調參)