
常見機(jī)器學(xué)習(xí)算法比較
機(jī)器學(xué)習(xí)算法太多了,分類、回歸、聚類、推薦、圖像識別領(lǐng)域等等,要想找到一個合適算法真的不容易,所以在實(shí)際應(yīng)用中,我們一般都是采用啟發(fā)式學(xué)習(xí)方式來實(shí)驗(yàn)。通常最開始我們都會選擇大家普遍認(rèn)同的算法,諸如SVM,GBDT,Adaboost,現(xiàn)在深度學(xué)習(xí)很火熱,神經(jīng)網(wǎng)絡(luò)也是一個不錯的選擇。假如你在乎精度(accuracy)的話,最好的方法就是通過交叉驗(yàn)證(cross-validation)對各個算法一個個地進(jìn)行測試,進(jìn)行比較,然后調(diào)整參數(shù)確保每個算法達(dá)到最優(yōu)解,最后選擇最好的一個。但是如果你只是在尋找一個“足夠好”的算法來解決你的問題,或者這里有些技巧可以參考,下面來分析下各個算法的優(yōu)缺點(diǎn),基于算法的優(yōu)缺點(diǎn),更易于我們?nèi)ミx擇它。
在統(tǒng)計(jì)學(xué)中,一個模型好壞,是根據(jù)偏差和方差來衡量的,所以我們先來普及一下偏差和方差:
偏差:描述的是預(yù)測值(估計(jì)值)的期望E’與真實(shí)值Y之間的差距。偏差越大,越偏離真實(shí)數(shù)據(jù)。
方差:描述的是預(yù)測值P的變化范圍,離散程度,是預(yù)測值的方差,也就是離其期望值E的距離。方差越大,數(shù)據(jù)的分布越分散。
模型的真實(shí)誤差是兩者之和,如下圖:
如果是小訓(xùn)練集,高偏差/低方差的分類器(例如,樸素貝葉斯NB)要比低偏差/高方差大分類的優(yōu)勢大(例如,KNN),因?yàn)楹笳邥?a href='/map/guonihe/' style='color:#000;font-size:inherit;'>過擬合。但是,隨著你訓(xùn)練集的增長,模型對于原數(shù)據(jù)的預(yù)測能力就越好,偏差就會降低,此時(shí)低偏差/高方差分類器就會漸漸的表現(xiàn)其優(yōu)勢(因?yàn)樗鼈冇休^低的漸近誤差),此時(shí)高偏差分類器此時(shí)已經(jīng)不足以提供準(zhǔn)確的模型了。
當(dāng)然,你也可以認(rèn)為這是生成模型(NB)與判別模型(KNN)的一個區(qū)別。
以下內(nèi)容引自知乎:
首先,假設(shè)你知道訓(xùn)練集和測試集的關(guān)系。簡單來講是我們要在訓(xùn)練集上學(xué)習(xí)一個模型,然后拿到測試集去用,效果好不好要根據(jù)測試集的錯誤率來衡量。但很多時(shí)候,我們只能假設(shè)測試集和訓(xùn)練集的是符合同一個數(shù)據(jù)分布的,但卻拿不到真正的測試數(shù)據(jù)。這時(shí)候怎么在只看到訓(xùn)練錯誤率的情況下,去衡量測試錯誤率呢?
由于訓(xùn)練樣本很少(至少不足夠多),所以通過訓(xùn)練集得到的模型,總不是真正正確的。(就算在訓(xùn)練集上正確率100%,也不能說明它刻畫了真實(shí)的數(shù)據(jù)分布,要知道刻畫真實(shí)的數(shù)據(jù)分布才是我們的目的,而不是只刻畫訓(xùn)練集的有限的數(shù)據(jù)點(diǎn))。而且,實(shí)際中,訓(xùn)練樣本往往還有一定的噪音誤差,所以如果太追求在訓(xùn)練集上的完美而采用一個很復(fù)雜的模型,會使得模型把訓(xùn)練集里面的誤差都當(dāng)成了真實(shí)的數(shù)據(jù)分布特征,從而得到錯誤的數(shù)據(jù)分布估計(jì)。這樣的話,到了真正的測試集上就錯的一塌糊涂了(這種現(xiàn)象叫過擬合)。但是也不能用太簡單的模型,否則在數(shù)據(jù)分布比較復(fù)雜的時(shí)候,模型就不足以刻畫數(shù)據(jù)分布了(體現(xiàn)為連在訓(xùn)練集上的錯誤率都很高,這種現(xiàn)象較欠擬合)。過擬合表明采用的模型比真實(shí)的數(shù)據(jù)分布更復(fù)雜,而欠擬合表示采用的模型比真實(shí)的數(shù)據(jù)分布要簡單。
在統(tǒng)計(jì)學(xué)習(xí)框架下,大家刻畫模型復(fù)雜度的時(shí)候,有這么個觀點(diǎn),認(rèn)為Error = Bias + Variance。這里的Error大概可以理解為模型的預(yù)測錯誤率,是有兩部分組成的,一部分是由于模型太簡單而帶來的估計(jì)不準(zhǔn)確的部分(Bias),另一部分是由于模型太復(fù)雜而帶來的更大的變化空間和不確定性(Variance)。
所以,這樣就容易分析樸素貝葉斯了。它簡單的假設(shè)了各個數(shù)據(jù)之間是無關(guān)的,是一個被嚴(yán)重簡化了的模型。所以,對于這樣一個簡單模型,大部分場合都會Bias部分大于Variance部分,也就是說高偏差而低方差。
在實(shí)際中,為了讓Error盡量小,我們在選擇模型的時(shí)候需要平衡Bias和Variance所占的比例,也就是平衡over-fitting和under-fitting。
偏差和方差與模型復(fù)雜度的關(guān)系使用下圖更加明了:
當(dāng)模型復(fù)雜度上升的時(shí)候,偏差會逐漸變小,而方差會逐漸變大。
樸素貝葉斯屬于生成式模型(關(guān)于生成模型和判別式模型,主要還是在于是否是要求聯(lián)合分布),非常簡單,你只是做了一堆計(jì)數(shù)。如果注有條件獨(dú)立性假設(shè)(一個比較嚴(yán)格的條件),樸素貝葉斯分類器的收斂速度將快于判別模型,如邏輯回歸,所以你只需要較少的訓(xùn)練數(shù)據(jù)即可。即使NB條件獨(dú)立假設(shè)不成立,NB分類器在實(shí)踐中仍然表現(xiàn)的很出色。它的主要缺點(diǎn)是它不能學(xué)習(xí)特征間的相互作用,用mRMR中R來講,就是特征冗余。引用一個比較經(jīng)典的例子,比如,雖然你喜歡Brad Pitt和Tom Cruise的電影,但是它不能學(xué)習(xí)出你不喜歡他們在一起演的電影。
優(yōu)點(diǎn):
樸素貝葉斯模型發(fā)源于古典數(shù)學(xué)理論,有著堅(jiān)實(shí)的數(shù)學(xué)基礎(chǔ),以及穩(wěn)定的分類效率。
對小規(guī)模的數(shù)據(jù)表現(xiàn)很好,能個處理多分類任務(wù),適合增量式訓(xùn)練;
對缺失數(shù)據(jù)不太敏感,算法也比較簡單,常用于文本分類。
缺點(diǎn):
需要計(jì)算先驗(yàn)概率;
分類決策存在錯誤率;
對輸入數(shù)據(jù)的表達(dá)形式很敏感。
屬于判別式模型,有很多正則化模型的方法(L0, L1,L2,etc),而且你不必像在用樸素貝葉斯那樣擔(dān)心你的特征是否相關(guān)。與決策樹與SVM機(jī)相比,你還會得到一個不錯的概率解釋,你甚至可以輕松地利用新數(shù)據(jù)來更新模型(使用在線梯度下降算法,online gradient descent)。如果你需要一個概率架構(gòu)(比如,簡單地調(diào)節(jié)分類閾值,指明不確定性,或者是要獲得置信區(qū)間),或者你希望以后將更多的訓(xùn)練數(shù)據(jù)快速整合到模型中去,那么使用它吧。
Sigmoid函數(shù):
優(yōu)點(diǎn):
實(shí)現(xiàn)簡單,廣泛的應(yīng)用于工業(yè)問題上;
分類時(shí)計(jì)算量非常小,速度很快,存儲資源低;
便利的觀測樣本概率分?jǐn)?shù);
對邏輯回歸而言,多重共線性并不是問題,它可以結(jié)合L2正則化來解決該問題;
缺點(diǎn):
當(dāng)特征空間很大時(shí),邏輯回歸的性能不是很好;
容易欠擬合,一般準(zhǔn)確度不太高
不能很好地處理大量多類特征或變量;
只能處理兩分類問題(在此基礎(chǔ)上衍生出來的softmax可以用于多分類),且必須線性可分;
對于非線性特征,需要進(jìn)行轉(zhuǎn)換;
線性回歸是用于回歸的,而不像Logistic回歸是用于分類,其基本思想是用梯度下降法對最小二乘法形式的誤差函數(shù)進(jìn)行優(yōu)化,當(dāng)然也可以用normal equation直接求得參數(shù)的解,結(jié)果為:
而在LWLR(局部加權(quán)線性回歸)中,參數(shù)的計(jì)算表達(dá)式為:
由此可見LWLR與LR不同,LWLR是一個非參數(shù)模型,因?yàn)槊看芜M(jìn)行回歸計(jì)算都要遍歷訓(xùn)練樣本至少一次。
優(yōu)點(diǎn): 實(shí)現(xiàn)簡單,計(jì)算簡單;
缺點(diǎn): 不能擬合非線性數(shù)據(jù).
KNN即最近鄰算法,其主要過程為:
如何選擇一個最佳的K值,這取決于數(shù)據(jù)。一般情況下,在分類時(shí)較大的K值能夠減小噪聲的影響。但會使類別之間的界限變得模糊。一個較好的K值可通過各種啟發(fā)式技術(shù)來獲取,比如,交叉驗(yàn)證。另外噪聲和非相關(guān)性特征向量的存在會使K近鄰算法的準(zhǔn)確性減小。
近鄰算法具有較強(qiáng)的一致性結(jié)果。隨著數(shù)據(jù)趨于無限,算法保證錯誤率不會超過貝葉斯算法錯誤率的兩倍。對于一些好的K值,K近鄰保證錯誤率不會超過貝葉斯理論誤差率。
KNN算法的優(yōu)點(diǎn)
理論成熟,思想簡單,既可以用來做分類也可以用來做回歸;
可用于非線性分類;
訓(xùn)練時(shí)間復(fù)雜度為O(n);
對數(shù)據(jù)沒有假設(shè),準(zhǔn)確度高,對outlier不敏感;
缺點(diǎn)
計(jì)算量大;
樣本不平衡問題(即有些類別的樣本數(shù)量很多,而其它樣本的數(shù)量很少);
需要大量的內(nèi)存;
易于解釋。它可以毫無壓力地處理特征間的交互關(guān)系并且是非參數(shù)化的,因此你不必?fù)?dān)心異常值或者數(shù)據(jù)是否線性可分(舉個例子,決策樹能輕松處理好類別A在某個特征維度x的末端,類別B在中間,然后類別A又出現(xiàn)在特征維度x前端的情況)。它的缺點(diǎn)之一就是不支持在線學(xué)習(xí),于是在新樣本到來后,決策樹需要全部重建。另一個缺點(diǎn)就是容易出現(xiàn)過擬合,但這也就是諸如隨機(jī)森林RF(或提升樹boosted tree)之類的集成方法的切入點(diǎn)。另外,隨機(jī)森林經(jīng)常是很多分類問題的贏家(通常比支持向量機(jī)好上那么一丁點(diǎn)),它訓(xùn)練快速并且可調(diào),同時(shí)你無須擔(dān)心要像支持向量機(jī)那樣調(diào)一大堆參數(shù),所以在以前都一直很受歡迎。
決策樹中很重要的一點(diǎn)就是選擇一個屬性進(jìn)行分枝,因此要注意一下信息增益的計(jì)算公式,并深入理解它。
信息熵的計(jì)算公式如下:
其中的n代表有n個分類類別(比如假設(shè)是2類問題,那么n=2)。分別計(jì)算這2類樣本在總樣本中出現(xiàn)的概率p1和p2,這樣就可以計(jì)算出未選中屬性分枝前的信息熵。
現(xiàn)在選中一個屬性xixi用來進(jìn)行分枝,此時(shí)分枝規(guī)則是:如果xi=vxi=v的話,將樣本分到樹的一個分支;如果不相等則進(jìn)入另一個分支。很顯然,分支中的樣本很有可能包括2個類別,分別計(jì)算這2個分支的熵H1和H2,計(jì)算出分枝后的總信息熵H’ =p1 H1+p2H2,則此時(shí)的信息增益ΔH = H – H’。以信息增益為原則,把所有的屬性都測試一邊,選擇一個使增益最大的屬性作為本次分枝屬性。
決策樹自身的優(yōu)點(diǎn)
計(jì)算簡單,易于理解,可解釋性強(qiáng);
比較適合處理有缺失屬性的樣本;
能夠處理不相關(guān)的特征;
在相對短的時(shí)間內(nèi)能夠?qū)Υ笮蛿?shù)據(jù)源做出可行且效果良好的結(jié)果。
缺點(diǎn)
容易發(fā)生過擬合(隨機(jī)森林可以很大程度上減少過擬合);
忽略了數(shù)據(jù)之間的相關(guān)性;
對于那些各類別樣本數(shù)量不一致的數(shù)據(jù),在決策樹當(dāng)中,信息增益的結(jié)果偏向于那些具有更多數(shù)值的特征(只要是使用了信息增益,都有這個缺點(diǎn),如RF)。
Adaboost是一種加和模型,每個模型都是基于上一次模型的錯誤率來建立的,過分關(guān)注分錯的樣本,而對正確分類的樣本減少關(guān)注度,逐次迭代之后,可以得到一個相對較好的模型。是一種典型的boosting算法。下面是總結(jié)下它的優(yōu)缺點(diǎn)。
優(yōu)點(diǎn)
adaboost是一種有很高精度的分類器。
可以使用各種方法構(gòu)建子分類器,Adaboost算法提供的是框架。
當(dāng)使用簡單分類器時(shí),計(jì)算出的結(jié)果是可以理解的,并且弱分類器的構(gòu)造極其簡單。
簡單,不用做特征篩選。
不容易發(fā)生overfitting。
缺點(diǎn):對outlier比較敏感
高準(zhǔn)確率,為避免過擬合提供了很好的理論保證,而且就算數(shù)據(jù)在原特征空間線性不可分,只要給個合適的核函數(shù),它就能運(yùn)行得很好。在動輒超高維的文本分類問題中特別受歡迎。可惜內(nèi)存消耗大,難以解釋,運(yùn)行和調(diào)參也有些煩人,而隨機(jī)森林卻剛好避開了這些缺點(diǎn),比較實(shí)用。
優(yōu)點(diǎn)
可以解決高維問題,即大型特征空間;
能夠處理非線性特征的相互作用;
無需依賴整個數(shù)據(jù);
可以提高泛化能力;
缺點(diǎn)
當(dāng)觀測樣本很多時(shí),效率并不是很高;
對非線性問題沒有通用解決方案,有時(shí)候很難找到一個合適的核函數(shù);
對缺失數(shù)據(jù)敏感;
對于核的選擇也是有技巧的(libsvm中自帶了四種核函數(shù):線性核、多項(xiàng)式核、RBF以及sigmoid核):
第一,如果樣本數(shù)量小于特征數(shù),那么就沒必要選擇非線性核,簡單的使用線性核就可以了;
第二,如果樣本數(shù)量大于特征數(shù)目,這時(shí)可以使用非線性核,將樣本映射到更高維度,一般可以得到更好的結(jié)果;
第三,如果樣本數(shù)目和特征數(shù)目相等,該情況可以使用非線性核,原理和第二種一樣。
對于第一種情況,也可以先對數(shù)據(jù)進(jìn)行降維,然后使用非線性核,這也是一種方法。
人工神經(jīng)網(wǎng)絡(luò)的優(yōu)點(diǎn):
分類的準(zhǔn)確度高;
并行分布處理能力強(qiáng),分布存儲及學(xué)習(xí)能力強(qiáng),
對噪聲神經(jīng)有較強(qiáng)的魯棒性和容錯能力,能充分逼近復(fù)雜的非線性關(guān)系;
具備聯(lián)想記憶的功能。
人工神經(jīng)網(wǎng)絡(luò)的缺點(diǎn):
神經(jīng)網(wǎng)絡(luò)需要大量的參數(shù),如網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)、權(quán)值和閾值的初始值;
不能觀察之間的學(xué)習(xí)過程,輸出結(jié)果難以解釋,會影響到結(jié)果的可信度和可接受程度
學(xué)習(xí)時(shí)間過長,甚至可能達(dá)不到學(xué)習(xí)的目的。
之前寫過一篇關(guān)于K-Means聚類的文章,博文鏈接:機(jī)器學(xué)習(xí)算法-K-means聚類。關(guān)于K-Means的推導(dǎo),里面有著很強(qiáng)大的EM思想。
優(yōu)點(diǎn)
算法簡單,容易實(shí)現(xiàn) ;
對處理大數(shù)據(jù)集,該算法是相對可伸縮的和高效率的,因?yàn)樗膹?fù)雜度大約是O(nkt),其中n是所有對象的數(shù)目,k是簇的數(shù)目,t是迭代的次數(shù)。通常k<
算法嘗試找出使平方誤差函數(shù)值最小的k個劃分。當(dāng)簇是密集的、球狀或團(tuán)狀的,且簇與簇之間區(qū)別明顯時(shí),聚類效果較好。
缺點(diǎn)
對數(shù)據(jù)類型要求較高,適合數(shù)值型數(shù)據(jù);
可能收斂到局部最小值,在大規(guī)模數(shù)據(jù)上收斂較慢
K值比較難以選取;
對初值的簇心值敏感,對于不同的初始值,可能會導(dǎo)致不同的聚類結(jié)果;
不適合于發(fā)現(xiàn)非凸面形狀的簇,或者大小差別很大的簇。
對于”噪聲”和孤立點(diǎn)數(shù)據(jù)敏感,少量的該類數(shù)據(jù)能夠?qū)ζ骄诞a(chǎn)生極大影響。
之前翻譯過一些國外的文章,有一篇文章中給出了一個簡單的算法選擇技巧:
首當(dāng)其沖應(yīng)該選擇的就是邏輯回歸,如果它的效果不怎么樣,那么可以將它的結(jié)果作為基準(zhǔn)來參考,在基礎(chǔ)上與其他算法進(jìn)行比較;
然后試試決策樹(隨機(jī)森林)看看是否可以大幅度提升你的模型性能。即便最后你并沒有把它當(dāng)做為最終模型,你也可以使用隨機(jī)森林來移除噪聲變量,做特征選擇;
如果特征的數(shù)量和觀測樣本特別多,那么當(dāng)資源和時(shí)間充足時(shí)(這個前提很重要),使用SVM不失為一種選擇。
通常情況下:【GBDT>=SVM>=RF>=Adaboost>=Other…】,現(xiàn)在深度學(xué)習(xí)很熱門,很多領(lǐng)域都用到,它是以神經(jīng)網(wǎng)絡(luò)為基礎(chǔ)的,目前我自己也在學(xué)習(xí),只是理論知識不是很厚實(shí),理解的不夠深,這里就不做介紹了。
算法固然重要,但好的數(shù)據(jù)卻要優(yōu)于好的算法,設(shè)計(jì)優(yōu)良特征是大有裨益的。假如你有一個超大數(shù)據(jù)集,那么無論你使用哪種算法可能對分類性能都沒太大影響(此時(shí)就可以根據(jù)速度和易用性來進(jìn)行抉擇)。
數(shù)據(jù)分析咨詢請掃描二維碼
若不方便掃碼,搜微信號:CDAshujufenxi
SQL Server 中 CONVERT 函數(shù)的日期轉(zhuǎn)換:從基礎(chǔ)用法到實(shí)戰(zhàn)優(yōu)化 在 SQL Server 的數(shù)據(jù)處理中,日期格式轉(zhuǎn)換是高頻需求 —— 無論 ...
2025-09-18MySQL 大表拆分與關(guān)聯(lián)查詢效率:打破 “拆分必慢” 的認(rèn)知誤區(qū) 在 MySQL 數(shù)據(jù)庫管理中,“大表” 始終是性能優(yōu)化繞不開的話題。 ...
2025-09-18CDA 數(shù)據(jù)分析師:表結(jié)構(gòu)數(shù)據(jù) “獲取 - 加工 - 使用” 全流程的賦能者 表結(jié)構(gòu)數(shù)據(jù)(如數(shù)據(jù)庫表、Excel 表、CSV 文件)是企業(yè)數(shù)字 ...
2025-09-18DSGE 模型中的 Et:理性預(yù)期算子的內(nèi)涵、作用與應(yīng)用解析 動態(tài)隨機(jī)一般均衡(Dynamic Stochastic General Equilibrium, DSGE)模 ...
2025-09-17Python 提取 TIF 中地名的完整指南 一、先明確:TIF 中的地名有哪兩種存在形式? 在開始提取前,需先判斷 TIF 文件的類型 —— ...
2025-09-17CDA 數(shù)據(jù)分析師:解鎖表結(jié)構(gòu)數(shù)據(jù)特征價(jià)值的專業(yè)核心 表結(jié)構(gòu)數(shù)據(jù)(以 “行 - 列” 規(guī)范存儲的結(jié)構(gòu)化數(shù)據(jù),如數(shù)據(jù)庫表、Excel 表、 ...
2025-09-17Excel 導(dǎo)入數(shù)據(jù)含缺失值?詳解 dropna 函數(shù)的功能與實(shí)戰(zhàn)應(yīng)用 在用 Python(如 pandas 庫)處理 Excel 數(shù)據(jù)時(shí),“缺失值” 是高頻 ...
2025-09-16深入解析卡方檢驗(yàn)與 t 檢驗(yàn):差異、適用場景與實(shí)踐應(yīng)用 在數(shù)據(jù)分析與統(tǒng)計(jì)學(xué)領(lǐng)域,假設(shè)檢驗(yàn)是驗(yàn)證研究假設(shè)、判斷數(shù)據(jù)差異是否 “ ...
2025-09-16CDA 數(shù)據(jù)分析師:掌控表格結(jié)構(gòu)數(shù)據(jù)全功能周期的專業(yè)操盤手 表格結(jié)構(gòu)數(shù)據(jù)(以 “行 - 列” 存儲的結(jié)構(gòu)化數(shù)據(jù),如 Excel 表、數(shù)據(jù) ...
2025-09-16MySQL 執(zhí)行計(jì)劃中 rows 數(shù)量的準(zhǔn)確性解析:原理、影響因素與優(yōu)化 在 MySQL SQL 調(diào)優(yōu)中,EXPLAIN執(zhí)行計(jì)劃是核心工具,而其中的row ...
2025-09-15解析 Python 中 Response 對象的 text 與 content:區(qū)別、場景與實(shí)踐指南 在 Python 進(jìn)行 HTTP 網(wǎng)絡(luò)請求開發(fā)時(shí)(如使用requests ...
2025-09-15CDA 數(shù)據(jù)分析師:激活表格結(jié)構(gòu)數(shù)據(jù)價(jià)值的核心操盤手 表格結(jié)構(gòu)數(shù)據(jù)(如 Excel 表格、數(shù)據(jù)庫表)是企業(yè)最基礎(chǔ)、最核心的數(shù)據(jù)形態(tài) ...
2025-09-15Python HTTP 請求工具對比:urllib.request 與 requests 的核心差異與選擇指南 在 Python 處理 HTTP 請求(如接口調(diào)用、數(shù)據(jù)爬取 ...
2025-09-12解決 pd.read_csv 讀取長浮點(diǎn)數(shù)據(jù)的科學(xué)計(jì)數(shù)法問題 為幫助 Python 數(shù)據(jù)從業(yè)者解決pd.read_csv讀取長浮點(diǎn)數(shù)據(jù)時(shí)的科學(xué)計(jì)數(shù)法問題 ...
2025-09-12CDA 數(shù)據(jù)分析師:業(yè)務(wù)數(shù)據(jù)分析步驟的落地者與價(jià)值優(yōu)化者 業(yè)務(wù)數(shù)據(jù)分析是企業(yè)解決日常運(yùn)營問題、提升執(zhí)行效率的核心手段,其價(jià)值 ...
2025-09-12用 SQL 驗(yàn)證業(yè)務(wù)邏輯:從規(guī)則拆解到數(shù)據(jù)把關(guān)的實(shí)戰(zhàn)指南 在業(yè)務(wù)系統(tǒng)落地過程中,“業(yè)務(wù)邏輯” 是連接 “需求設(shè)計(jì)” 與 “用戶體驗(yàn) ...
2025-09-11塔吉特百貨孕婦營銷案例:數(shù)據(jù)驅(qū)動下的精準(zhǔn)零售革命與啟示 在零售行業(yè) “流量紅利見頂” 的當(dāng)下,精準(zhǔn)營銷成為企業(yè)突圍的核心方 ...
2025-09-11CDA 數(shù)據(jù)分析師與戰(zhàn)略 / 業(yè)務(wù)數(shù)據(jù)分析:概念辨析與協(xié)同價(jià)值 在數(shù)據(jù)驅(qū)動決策的體系中,“戰(zhàn)略數(shù)據(jù)分析”“業(yè)務(wù)數(shù)據(jù)分析” 是企業(yè) ...
2025-09-11Excel 數(shù)據(jù)聚類分析:從操作實(shí)踐到業(yè)務(wù)價(jià)值挖掘 在數(shù)據(jù)分析場景中,聚類分析作為 “無監(jiān)督分組” 的核心工具,能從雜亂數(shù)據(jù)中挖 ...
2025-09-10統(tǒng)計(jì)模型的核心目的:從數(shù)據(jù)解讀到?jīng)Q策支撐的價(jià)值導(dǎo)向 統(tǒng)計(jì)模型作為數(shù)據(jù)分析的核心工具,并非簡單的 “公式堆砌”,而是圍繞特定 ...
2025-09-10