
Bi這里是的意思就是Binary,二進(jìn)制的意思,所以有時(shí)候叫這個(gè)算法為二進(jìn)Kmeans算法。為什么我們需要用BiKmeans呢,就是為了解決初始化k個(gè)隨機(jī)的質(zhì)心點(diǎn)時(shí)其中一個(gè)或者多個(gè)點(diǎn)由于位置太極端而導(dǎo)致迭代的過程中消失的問題。BiKmeans只是Kmeans其中一個(gè)優(yōu)化方案,其實(shí)還是有很多優(yōu)化的方案,這里BiKmeans容易講解和理解,并且容易用numpy, pandas實(shí)現(xiàn)。
那為什么二進(jìn)Kmeans算法可以有效的解決這個(gè)問題呢。我們需要從二進(jìn)Kmeans的基礎(chǔ)看是講起。其實(shí)BiKmeans的迭代過程類似于一個(gè)決策樹。首先我們看一下K-means聚類等算法的步驟。
利用之前寫好的Kmeans算法包,設(shè)置k為2。所以每次傳入一個(gè)數(shù)據(jù)集的時(shí)候,都是進(jìn)行2分類。
假設(shè)我們預(yù)先想分出K個(gè)簇。
那這個(gè)算法其實(shí)就是非常的類似決策樹的算法。在決策樹節(jié)點(diǎn)由父節(jié)點(diǎn)劃分成子節(jié)點(diǎn)的過程中,用的是gini不純度來判斷是否需要?jiǎng)澐郑覀冞x擇不純度差值最大的那個(gè)特征來做劃分。這里也類似,我們最后的目標(biāo)是最小化SSE,所以對每一個(gè)簇來說,都可以得出該簇在劃分出成2個(gè)簇之后總體上SSE降低了多少,我們需要做的就是保持其他的簇不變,選取的就是那個(gè)能夠最大程度的降低SSE的那個(gè)簇進(jìn)行Kmeans二分類。
那個(gè)算法里面還是有個(gè)缺陷,就是在算法的過程中,會(huì)對每個(gè)簇重復(fù)計(jì)算劃分后SSE的差值,所以這里我在對每個(gè)簇做劃分后,記錄下它的SSE差值,后期就可以直接使用SSE,不用重新再計(jì)算一遍了。
我們首先用決策樹的概念來看下BiKmeans,我們目標(biāo)是分成4個(gè)簇,首先有我們有我們的根節(jié)點(diǎn),也就是我們的整體的數(shù)據(jù)集,假設(shè)這個(gè)數(shù)據(jù)集的SSE為100.
首先先讀取數(shù)據(jù),讀取的是上次我們在Kmeans中間過程最后展示原始Kmeans理論缺陷的那組數(shù)據(jù)。
from Kmeans_pack import *
r = 4 k = 3 x , y = make_blobs(n_samples = 400, cluster_std = [0.2, 0.4, 0.4, 0.4], centers = [[0.3,-1],[1,1],[-1,1], [-1,-1]], random_state = r ) np.random.seed(r) sim_data = pd.DataFrame(x, columns = ['x', 'y']) sim_data['label'] = y dataset = sim_data.copy()
現(xiàn)在我們嘗試的將數(shù)據(jù)只做一次二分Kmeans的迭代,查看結(jié)果,這個(gè)時(shí)候會(huì)有兩種結(jié)果
在這兩個(gè)情況下,我們看到2分Kmeans可以將當(dāng)前數(shù)據(jù)集分成2個(gè)簇,緊接著我們就需要嘗試分別對藍(lán)色和黃色的簇進(jìn)行2分Kmeans查看每個(gè)簇劃分后SSE下降了少。我們會(huì)首先寫一個(gè)Split函數(shù),對每個(gè)傳進(jìn)去的數(shù)據(jù)集進(jìn)行2分Kmeans。但是這里需要注意是否是第一次做劃分,就比如上面的情況。
這里我們首先有個(gè)split函數(shù),專門用來對傳入的數(shù)據(jù)做2分Kmeans,算出聚類前和聚類后的SSE,比如說假如這個(gè)時(shí)候我們有x和y,\bar{x}xˉ和\bar{y}yˉ為x和y的平均值
\left[ \begin{matrix} (x_{1}-\bar{x})^2 + (y_{1}-\bar{y})^2 \\ (x_{2}-\bar{x})^2 + (y_{2}-\bar{y})^2 \\ (x_{3}-\bar{x})^2 + (y_{3}-\bar{y})^2 \end{matrix} \right]??(x1?xˉ)2+(y1?yˉ)2(x2?xˉ)2+(y2?yˉ)2(x3?xˉ)2+(y3?yˉ)2??
def Split(dataset): #假設(shè)當(dāng)前數(shù)據(jù)不是第一次二分Kmeans,就是說傳進(jìn)來的是整體的數(shù)據(jù)集,當(dāng)前的質(zhì)心點(diǎn)就是每個(gè)特征的平均值 temp_data = dataset.loc[:, dataset.columns != 'label'].copy() #計(jì)算當(dāng)前數(shù)據(jù)集的SSE current_error = np.power(temp_data - temp_data.mean(), 2).sum().sum() #對數(shù)據(jù)集做二分Kmeans curr_group, SSE_list, centers = Kmeans_regular(temp_data, k = 2) #記錄二分后的SSE after_split_error = SSE_list[-1] #已經(jīng)有了curr_group將二分類后的數(shù)據(jù)集先拿出來 clusters = list(dataset.groupby(curr_group)) #這里有非常非常少的情況會(huì)出現(xiàn)二分Kmeans中初始的質(zhì)心點(diǎn)其中一個(gè)由于離所有的都太遠(yuǎn),導(dǎo)致丟失的情況 #所以這里多加了一個(gè)判斷,假如其中一個(gè)質(zhì)心掉了,那上面給的clusters只有一個(gè)而不是兩個(gè) #在這個(gè)情況下,dataset沒有被成功二分類,我們需要將dataset自身給return,進(jìn)行下一次迭代,肯定有一次迭代能成功分出2個(gè)簇 #所以在這個(gè)情況下entropy就是current_error, cluster1就是dataset自己,cluster2為空 if len(clusters) == 1: entropy = current_error return [entropy, dataset, None, current_error] #分別取出2個(gè)簇 cluster1, cluster2 = [i[1] for i in clusters] #計(jì)算這個(gè)簇做了二分Kmeans后SSE下降的多少 entropy = current_error - after_split_error #最后返回結(jié)果,返回當(dāng)前這個(gè)簇二分后的SSE差值,分出的簇1和簇2,還有當(dāng)前這個(gè)簇的SSE return [entropy, cluster1, cluster2, current_error]
這個(gè)函數(shù)寫好之后我們來測試一下,當(dāng)前我們將所有的數(shù)據(jù)全部傳進(jìn)去后,給出的結(jié)果
entropy, cluster1, cluster2, current_error = Split(dataset) entropy, cluster1.shape[0], cluster2.shape[0], current_error
(432.9176440191153, 200, 200, 813.3842612925762)
當(dāng)前數(shù)據(jù)集做完二分后整體SSE由原來的813,下降了432.92。
接下來就是需要完成2分Kmeans的迭代過程
def bi_iterate(dataset, k = 4): #首先準(zhǔn)備一個(gè)空的cluster_info_list,這個(gè)list是用來存二分后的結(jié)果,里面每一個(gè)元素都是一個(gè)簇 #對于每個(gè)元素來說,它代表的是個(gè)簇,里面記錄的這個(gè)簇的[entropy, cluster1, cluster2, current_error] #也就是每個(gè)簇的[SSE差值,第一個(gè)二分后的簇,第二個(gè)二分后的簇,當(dāng)前簇的SSE] cluster_info_list = [] #使用while做循環(huán)直到cluster_info_list里面一共達(dá)到k個(gè)簇的時(shí)候停止 while len(cluster_info_list) < k: #假如當(dāng)前我們是第一次迭代的話也就是cluster_info_list是空list的話做以下操作 if len(cluster_info_list) == 0: #直接用Split函數(shù),將整體數(shù)據(jù)集放入cluster_info_list里,然后下面的操作都不用,continue進(jìn)入下一個(gè)循環(huán) cluster_info_list.append(Split(dataset)) continue #首先將cluster_info_list最后一個(gè)元素取出來,cluster_info_list里面是所有簇的信息 #我們后面會(huì)對cluster_info_list做sort,由于cluster_info_list里面每個(gè)元素的第一位是SSE差值 #所以我們做完sort后,最后一個(gè)元素肯定是SSE差值(entropy)最大的那一個(gè),也就是我們需要下一步做二分的簇 #將最后一個(gè)元素里的2個(gè)clusters取出來后,將這個(gè)當(dāng)前在cluster_info_list里SSE最大的一個(gè)簇刪除掉(pop方法) #取而代之的是Split(cluster1)和Split(cluster2),也是就嘗試著對新的兩個(gè)cluster嘗試去算SSE差值 cluster1, cluster2 = cluster_info_list[-1][1:-1] cluster_info_list.pop(-1) #將Split(cluster1)和Split(cluster2)的結(jié)果追加到cluster_info_list #注意假如只有cluster2給出的是None,則碰到二分類不成功的情況,cluster1還為原來上一次dataset,cluster2為空 #不將cluster2追加到cluster_info_list當(dāng)中 cluster_info_list.append(Split(cluster1)) if cluster2 is not None: cluster_info_list.append(Split(cluster2)) #整體的cluster_info_list進(jìn)行一次sort,找出當(dāng)前所有的簇中,哪一個(gè)簇的SSE差值最大 #這里我們是需要對整體cluster_info_list做sort,因?yàn)樾伦芳舆M(jìn)去的2個(gè)心cluster的SSE差值可能沒有cluster_info_list里已經(jīng)記錄的簇的SSE大。 cluster_info_list.sort() #進(jìn)入下一個(gè)循環(huán) return cluster_info_list
將總共的代碼都放在一起,內(nèi)容不多,和網(wǎng)上的代碼相比的話,簡單易懂量少,也避免了效率較低的for循環(huán)。
from Kmeans_pack import * def Split(dataset): temp_data = dataset.loc[:, dataset.columns != 'label'].copy() current_error = np.power(temp_data - temp_data.mean(), 2).sum().sum() curr_group, SSE_list, centers = Kmeans_regular(temp_data, k = 2) after_split_error = SSE_list[-1] clusters = list(dataset.groupby(curr_group)) if len(clusters) == 1: entropy = current_error return [entropy, dataset, None, None, current_error] cluster1, cluster2 = [i[1] for i in clusters] entropy = current_error - after_split_error return [entropy, cluster1, cluster2, centers, curr_group, current_error, dataset] def bi_Kmeans(dataset, k = 4): cluster_info_list = [] while len(cluster_info_list) < k: if len(cluster_info_list) == 0: cluster_info_list.append(Split(dataset)) continue cluster1, cluster2 = cluster_info_list[-1][1:3] cluster_info_list.pop(-1) cluster_info_list.append(Split(cluster1)) if cluster2 is not None: cluster_info_list.append(Split(cluster2)) cluster_info_list.sort() return cluster_info_list
我們測試一下代碼,返回的cluster_info_list里面所有的元素都是簇的信息,每個(gè)元素的最后一位都是這個(gè)簇的簇內(nèi)SSE,所以我們可以用列表解析的方法將每個(gè)元素的最后一位取出來,進(jìn)行相加就能得到BiKmeans最后的結(jié)果給出的整體的SSE,我們可以看出在數(shù)據(jù)集要4個(gè)簇的前提下,我們SSE最后為95.64
np.random.seed(1) cluster_info_list = bi_Kmeans(dataset, k = 4)
我們也可以將這個(gè)結(jié)果和原始寫好的Kmeans_regular做比較
regular_SSE = [] bi_SSE = [] for i in range(50): curr_group, SSE_list, centers = Kmeans_regular(dataset, k = 4) cluster_info_list = bi_Kmeans(dataset, k = 4) bi_sse = sum([i[-1] for i in cluster_info_list]) regular_SSE.append(SSE_list[-1]) bi_SSE.append(bi_sse)
data_compare = pd.DataFrame({'ReKmeans':regular_SSE,'BiKmeans':bi_SSE}) data = [go.Scatter(x = data_compare.index + 1, y = data_compare[i], mode = 'lines+markers', name = i ) for i in data_compare.columns] layout = go.Layout(title = '原始Kmeans與二分Kmeans的SSE穩(wěn)定性比較', xaxis = {'title' : '次數(shù)'}, yaxis = {'title' : 'SSE值'}, template = 'plotly_white' ) fig = go.Figure(data = data, layout = layout) #fig.show()
我們這里隨機(jī)的跑30次,來比較最后2個(gè)算法所得到的SSE,我們這里主要查看穩(wěn)定性??梢詮膱D中看出對于原始的(RegularKmeans)的SSE非常不穩(wěn)定,而對于BiKmeans來說的話,SSE非常穩(wěn)定,一直保持在大約95左右。這里就體現(xiàn)出的BiKmeans的優(yōu)點(diǎn),可以很大概率的(不是絕無可能)保證每次隨機(jī)生成的2個(gè)質(zhì)心點(diǎn)不會(huì)因?yàn)樘珮O端而導(dǎo)致其中一個(gè)丟失的問題,從而導(dǎo)致最后SSE很高,結(jié)果陷入局部最優(yōu)的這樣一個(gè)問題。
這里我們不會(huì)像Kmeans中間過程那樣給出詳細(xì)的從隨機(jī)選取的質(zhì)心點(diǎn)到收斂的過程。我們這個(gè)給出一個(gè)大致的BiKmeans中間過程,有助于同學(xué)們理解。
數(shù)據(jù)分析咨詢請掃描二維碼
若不方便掃碼,搜微信號:CDAshujufenxi
SQL Server 中 CONVERT 函數(shù)的日期轉(zhuǎn)換:從基礎(chǔ)用法到實(shí)戰(zhàn)優(yōu)化 在 SQL Server 的數(shù)據(jù)處理中,日期格式轉(zhuǎn)換是高頻需求 —— 無論 ...
2025-09-18MySQL 大表拆分與關(guān)聯(lián)查詢效率:打破 “拆分必慢” 的認(rèn)知誤區(qū) 在 MySQL 數(shù)據(jù)庫管理中,“大表” 始終是性能優(yōu)化繞不開的話題。 ...
2025-09-18CDA 數(shù)據(jù)分析師:表結(jié)構(gòu)數(shù)據(jù) “獲取 - 加工 - 使用” 全流程的賦能者 表結(jié)構(gòu)數(shù)據(jù)(如數(shù)據(jù)庫表、Excel 表、CSV 文件)是企業(yè)數(shù)字 ...
2025-09-18DSGE 模型中的 Et:理性預(yù)期算子的內(nèi)涵、作用與應(yīng)用解析 動(dòng)態(tài)隨機(jī)一般均衡(Dynamic Stochastic General Equilibrium, DSGE)模 ...
2025-09-17Python 提取 TIF 中地名的完整指南 一、先明確:TIF 中的地名有哪兩種存在形式? 在開始提取前,需先判斷 TIF 文件的類型 —— ...
2025-09-17CDA 數(shù)據(jù)分析師:解鎖表結(jié)構(gòu)數(shù)據(jù)特征價(jià)值的專業(yè)核心 表結(jié)構(gòu)數(shù)據(jù)(以 “行 - 列” 規(guī)范存儲(chǔ)的結(jié)構(gòu)化數(shù)據(jù),如數(shù)據(jù)庫表、Excel 表、 ...
2025-09-17Excel 導(dǎo)入數(shù)據(jù)含缺失值?詳解 dropna 函數(shù)的功能與實(shí)戰(zhàn)應(yīng)用 在用 Python(如 pandas 庫)處理 Excel 數(shù)據(jù)時(shí),“缺失值” 是高頻 ...
2025-09-16深入解析卡方檢驗(yàn)與 t 檢驗(yàn):差異、適用場景與實(shí)踐應(yīng)用 在數(shù)據(jù)分析與統(tǒng)計(jì)學(xué)領(lǐng)域,假設(shè)檢驗(yàn)是驗(yàn)證研究假設(shè)、判斷數(shù)據(jù)差異是否 “ ...
2025-09-16CDA 數(shù)據(jù)分析師:掌控表格結(jié)構(gòu)數(shù)據(jù)全功能周期的專業(yè)操盤手 表格結(jié)構(gòu)數(shù)據(jù)(以 “行 - 列” 存儲(chǔ)的結(jié)構(gòu)化數(shù)據(jù),如 Excel 表、數(shù)據(jù) ...
2025-09-16MySQL 執(zhí)行計(jì)劃中 rows 數(shù)量的準(zhǔn)確性解析:原理、影響因素與優(yōu)化 在 MySQL SQL 調(diào)優(yōu)中,EXPLAIN執(zhí)行計(jì)劃是核心工具,而其中的row ...
2025-09-15解析 Python 中 Response 對象的 text 與 content:區(qū)別、場景與實(shí)踐指南 在 Python 進(jìn)行 HTTP 網(wǎng)絡(luò)請求開發(fā)時(shí)(如使用requests ...
2025-09-15CDA 數(shù)據(jù)分析師:激活表格結(jié)構(gòu)數(shù)據(jù)價(jià)值的核心操盤手 表格結(jié)構(gòu)數(shù)據(jù)(如 Excel 表格、數(shù)據(jù)庫表)是企業(yè)最基礎(chǔ)、最核心的數(shù)據(jù)形態(tài) ...
2025-09-15Python HTTP 請求工具對比:urllib.request 與 requests 的核心差異與選擇指南 在 Python 處理 HTTP 請求(如接口調(diào)用、數(shù)據(jù)爬取 ...
2025-09-12解決 pd.read_csv 讀取長浮點(diǎn)數(shù)據(jù)的科學(xué)計(jì)數(shù)法問題 為幫助 Python 數(shù)據(jù)從業(yè)者解決pd.read_csv讀取長浮點(diǎn)數(shù)據(jù)時(shí)的科學(xué)計(jì)數(shù)法問題 ...
2025-09-12CDA 數(shù)據(jù)分析師:業(yè)務(wù)數(shù)據(jù)分析步驟的落地者與價(jià)值優(yōu)化者 業(yè)務(wù)數(shù)據(jù)分析是企業(yè)解決日常運(yùn)營問題、提升執(zhí)行效率的核心手段,其價(jià)值 ...
2025-09-12用 SQL 驗(yàn)證業(yè)務(wù)邏輯:從規(guī)則拆解到數(shù)據(jù)把關(guān)的實(shí)戰(zhàn)指南 在業(yè)務(wù)系統(tǒng)落地過程中,“業(yè)務(wù)邏輯” 是連接 “需求設(shè)計(jì)” 與 “用戶體驗(yàn) ...
2025-09-11塔吉特百貨孕婦營銷案例:數(shù)據(jù)驅(qū)動(dòng)下的精準(zhǔn)零售革命與啟示 在零售行業(yè) “流量紅利見頂” 的當(dāng)下,精準(zhǔn)營銷成為企業(yè)突圍的核心方 ...
2025-09-11CDA 數(shù)據(jù)分析師與戰(zhàn)略 / 業(yè)務(wù)數(shù)據(jù)分析:概念辨析與協(xié)同價(jià)值 在數(shù)據(jù)驅(qū)動(dòng)決策的體系中,“戰(zhàn)略數(shù)據(jù)分析”“業(yè)務(wù)數(shù)據(jù)分析” 是企業(yè) ...
2025-09-11Excel 數(shù)據(jù)聚類分析:從操作實(shí)踐到業(yè)務(wù)價(jià)值挖掘 在數(shù)據(jù)分析場景中,聚類分析作為 “無監(jiān)督分組” 的核心工具,能從雜亂數(shù)據(jù)中挖 ...
2025-09-10統(tǒng)計(jì)模型的核心目的:從數(shù)據(jù)解讀到?jīng)Q策支撐的價(jià)值導(dǎo)向 統(tǒng)計(jì)模型作為數(shù)據(jù)分析的核心工具,并非簡單的 “公式堆砌”,而是圍繞特定 ...
2025-09-10