
機(jī)器學(xué)習(xí)中的損失函數(shù) (著重比較:hinge loss vs softmax loss)
1. 損失函數(shù)
損失函數(shù)(Loss function)是用來(lái)估量你模型的預(yù)測(cè)值f(x)
與真實(shí)值Y的不一致程度,它是一個(gè)非負(fù)實(shí)值函數(shù),通常用L(Y,f(x))
來(lái)表示。損失函數(shù)越小,模型的魯棒性就越好。損失函數(shù)是經(jīng)驗(yàn)風(fēng)險(xiǎn)函數(shù)的核心部分,也是結(jié)構(gòu)風(fēng)險(xiǎn)函數(shù)的重要組成部分。模型的風(fēng)險(xiǎn)結(jié)構(gòu)包括了風(fēng)險(xiǎn)項(xiàng)和正則項(xiàng),通常如下所示:
其中,前面的均值函數(shù)表示的是經(jīng)驗(yàn)風(fēng)險(xiǎn)函數(shù),L代表的是損失函數(shù),后面的Φ是正則化項(xiàng)(regularizer)或者叫懲罰項(xiàng)(penalty term),它可以是L1,也可以是L2,或者其他的正則函數(shù)。整個(gè)式子表示的意思是找到使目標(biāo)函數(shù)最小時(shí)的θ值。
2. 常用損失函數(shù)
常見的損失誤差有五種:
1.鉸鏈損失(Hinge Loss):主要用于支持向量機(jī)(SVM) 中;
2.互熵?fù)p失 (Cross Entropy Loss,Softmax Loss ):用于Logistic 回歸與Softmax 分類中;
3.平方損失(Square Loss):主要是最小二乘法(OLS)中;
4.指數(shù)損失(Exponential Loss):主要用于Adaboost 集成學(xué)習(xí)算法中;
5.其他損失(如0-1損失,絕對(duì)值損失)
2.1 Hinge loss
Hinge loss 的叫法來(lái)源于其損失函數(shù)的圖形,為一個(gè)折線,通用的函數(shù)表達(dá)式為:
表示如果被正確分類,損失是0,否則損失就是1?mi(w)。
在機(jī)器學(xué)習(xí)中,Hing 可以用來(lái)解間距最大化的問(wèn)題,最有代表性的就是SVM 問(wèn)題,最初的SVM 優(yōu)化函數(shù)如下:
將約束項(xiàng)進(jìn)行變形,則為:
則損失函數(shù)可以進(jìn)一步寫為:
因此,SVM 的損失函數(shù)可以看作是 L2-norm 和 Hinge loss 之和。
2.2 Softmax Loss
有些人可能覺得邏輯回歸的損失函數(shù)就是平方損失,其實(shí)并不是。平方損失函數(shù)可以通過(guò)線性回歸在假設(shè)樣本是高斯分布的條件下推導(dǎo)得到,而邏輯回歸得到的并不是平方損失。在邏輯回歸的推導(dǎo)中,它假設(shè)樣本服從伯努利分布(0-1分布),然后求得滿足該分布的似然函數(shù),接著取對(duì)數(shù)求極值等等。而邏輯回歸并沒(méi)有求似然函數(shù)的極值,而是把極大化當(dāng)做是一種思想,進(jìn)而推導(dǎo)出它的經(jīng)驗(yàn)風(fēng)險(xiǎn)函數(shù)為:最小化負(fù)的似然函數(shù)(即maxF(y,f(x))→min?F(y,f(x)))
。從損失函數(shù)的視角來(lái)看,它就成了Softmax 損失函數(shù)了。
log損失函數(shù)的標(biāo)準(zhǔn)形式:
剛剛說(shuō)到,取對(duì)數(shù)是為了方便計(jì)算極大似然估計(jì),因?yàn)樵贛LE中,直接求導(dǎo)比較困難,所以通常都是先取對(duì)數(shù)再求導(dǎo)找極值點(diǎn)。損失函數(shù)L(Y,P(Y|X))表達(dá)的是樣本X在分類Y的情況下,使概率P(Y|X)達(dá)到最大值(換言之,就是利用已知的樣本分布,找到最有可能(即最大概率)導(dǎo)致這種分布的參數(shù)值;或者說(shuō)什么樣的參數(shù)才能使我們觀測(cè)到目前這組數(shù)據(jù)的概率最大)。因?yàn)閘og函數(shù)是單調(diào)遞增的,所以logP(Y|X)也會(huì)達(dá)到最大值,因此在前面加上負(fù)號(hào)之后,最大化P(Y|X)就等價(jià)于最小化L了。
邏輯回歸的P(Y=y|x)
表達(dá)式如下(為了將類別標(biāo)簽y統(tǒng)一為1和0
):
其中
2.3 Squared Loss
最小二乘法是線性回歸的一種,OLS將問(wèn)題轉(zhuǎn)化成了一個(gè)凸優(yōu)化問(wèn)題。在線性回歸中,它假設(shè)樣本和噪聲都服從高斯分布(中心極限定理),最后通過(guò)極大似然估計(jì)(MLE)可以推導(dǎo)出最小二乘式子。最小二乘的基本原則是:最優(yōu)擬合直線應(yīng)該是使各點(diǎn)到回歸直線的距離和最小的直線,即平方和最小。
平方損失(Square loss)的標(biāo)準(zhǔn)形式如下:
當(dāng)樣本個(gè)數(shù)為n
時(shí),此時(shí)的損失函數(shù)為:
Y?f(X)表示殘差,整個(gè)式子表示的是殘差平方和,我們的目標(biāo)就是最小化這個(gè)目標(biāo)函數(shù)值,即最小化殘差的平方和。
在實(shí)際應(yīng)用中,我們使用均方差(MSE)作為一項(xiàng)衡量指標(biāo),公式如下:
2.4 Exponentially Loss
損失函數(shù)的標(biāo)準(zhǔn)形式是:
exp-loss,主要應(yīng)用于 Boosting 算法中,在Adaboost 算法中,經(jīng)過(guò)m次迭代后,可以得到fm(x):
Adaboost 每次迭代時(shí)的目的都是找到最小化下列式子的參數(shù)α和G:
易知,Adabooost 的目標(biāo)式子就是指數(shù)損失,在給定n個(gè)樣本的情況下,Adaboost 的損失函數(shù)為:
關(guān)于Adaboost的詳細(xì)推導(dǎo)介紹,可以參考Wikipedia:AdaBoost或者李航《統(tǒng)計(jì)學(xué)習(xí)方法》P145。
2.5 其他損失
0-1 損失函數(shù)
絕對(duì)值損失函數(shù)
上述幾種損失函數(shù)比較的可視化圖像如下:
3. Hinge loss 與 Softmax loss
SVM和Softmax分類器是最常用的兩個(gè)分類器。
在Softmax分類器中, 函數(shù)映射f(xi,W)
保持不變,但將這些評(píng)分值看做每個(gè)分類未歸一化的對(duì)數(shù)概率,且將折葉損失替換為交叉熵?fù)p失(cross-entropy loss),公式如下:
或等價(jià)的
表示分類評(píng)分向量f中的第i
個(gè)元素,和SVM一樣,整個(gè)數(shù)據(jù)集的損失值是數(shù)據(jù)集中所有樣本數(shù)據(jù)的損失值Li的均值和正則化損失之和。
概率論解釋:
解釋為給定數(shù)據(jù)xi
,W參數(shù),分配給正確分類標(biāo)簽yi
的歸一化概率。
實(shí)際操作注意事項(xiàng)——數(shù)值穩(wěn)定: 編程實(shí)現(xiàn)softmax函數(shù)計(jì)算的時(shí)候,中間項(xiàng)efyi
和∑jefj因?yàn)榇嬖谥笖?shù)函數(shù),所以數(shù)值可能非常大,除以大數(shù)值可能導(dǎo)致數(shù)值計(jì)算的不穩(wěn)定,所以得學(xué)會(huì)歸一化技巧.若在公式的分子和分母同時(shí)乘以一個(gè)常數(shù)C
,并把它變換到求和之中,就能得到一個(gè)等價(jià)公式:
C的值可自由選擇,不會(huì)影響計(jì)算結(jié)果,通過(guò)這個(gè)技巧可以提高計(jì)算中的數(shù)值穩(wěn)定性.通常將C設(shè)為:
該技巧就是將向量f中的數(shù)值進(jìn)行平移,使得最大值為0。
準(zhǔn)確地說(shuō),SVM分類器使用的是鉸鏈損失(hinge loss),有時(shí)候又被稱為最大邊界損失(max-margin loss)。Softmax分類器使用的是交叉熵?fù)p失(corss-entropy loss)。Softmax分類器的命名是從softmax函數(shù)那里得來(lái)的,softmax函數(shù)將原始分類評(píng)分變成正的歸一化數(shù)值,所有數(shù)值和為1,這樣處理后交叉熵?fù)p失才能應(yīng)用。
Example:圖像識(shí)別
針對(duì)給出的圖像,SVM分類器可能給你的是一個(gè)[?2.85,0.86,0.28]
對(duì)應(yīng)分類“貓”,“狗”,“船”,而softmax分類器可以計(jì)算出這三個(gè)標(biāo)簽的”可能性“是[0.,0160.631,0.353]
,這就讓你能看出對(duì)于不同分類準(zhǔn)確性的把握。
這里Hinge Loss計(jì)算公式為:
這里Δ是一個(gè)閾值,表示即使誤分類,但是沒(méi)有達(dá)到閾值,也不存在損失 。上面的公式把錯(cuò)誤類別(j≠yi)都遍歷一遍,求值加和。
設(shè)xi
的正確類別是”船”,閾值Δ=1
,則對(duì)應(yīng)的Hinge loss 為:
下圖是對(duì)Δ的理解,藍(lán)色表示正確的類別,Δ表示一個(gè)安全范圍,就算是有其他的得分,只要沒(méi)有到達(dá)紅色的Δ范圍內(nèi),,對(duì)損失函數(shù)都沒(méi)有影響。這就保證了SVM 算法的解的稀疏性。
而Softmax 損失則是對(duì)向量fyi
指數(shù)正規(guī)化得到概率,再求對(duì)數(shù)即可。
4.總結(jié)
機(jī)器學(xué)習(xí)作為一種優(yōu)化方法,學(xué)習(xí)目標(biāo)就是找到優(yōu)化的目標(biāo)函數(shù)——損失函數(shù)和正則項(xiàng)的組合;有了目標(biāo)函數(shù)的“正確的打開方式”,才能通過(guò)合適的機(jī)器學(xué)習(xí)算法求解優(yōu)化。
不同機(jī)器學(xué)習(xí)方法的損失函數(shù)有差異,合理理解各種損失優(yōu)化函數(shù)的的特點(diǎn)更有利于我們對(duì)相關(guān)算法的理解。
數(shù)據(jù)分析咨詢請(qǐng)掃描二維碼
若不方便掃碼,搜微信號(hào):CDAshujufenxi
LSTM 模型輸入長(zhǎng)度選擇技巧:提升序列建模效能的關(guān)鍵? 在循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)家族中,長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)憑借其解決長(zhǎng)序列 ...
2025-07-11CDA 數(shù)據(jù)分析師報(bào)考條件詳解與準(zhǔn)備指南? ? 在數(shù)據(jù)驅(qū)動(dòng)決策的時(shí)代浪潮下,CDA 數(shù)據(jù)分析師認(rèn)證愈發(fā)受到矚目,成為眾多有志投身數(shù) ...
2025-07-11數(shù)據(jù)透視表中兩列相乘合計(jì)的實(shí)用指南? 在數(shù)據(jù)分析的日常工作中,數(shù)據(jù)透視表憑借其強(qiáng)大的數(shù)據(jù)匯總和分析功能,成為了 Excel 用戶 ...
2025-07-11尊敬的考生: 您好! 我們誠(chéng)摯通知您,CDA Level I和 Level II考試大綱將于 2025年7月25日 實(shí)施重大更新。 此次更新旨在確保認(rèn) ...
2025-07-10BI 大數(shù)據(jù)分析師:連接數(shù)據(jù)與業(yè)務(wù)的價(jià)值轉(zhuǎn)化者? ? 在大數(shù)據(jù)與商業(yè)智能(Business Intelligence,簡(jiǎn)稱 BI)深度融合的時(shí)代,BI ...
2025-07-10SQL 在預(yù)測(cè)分析中的應(yīng)用:從數(shù)據(jù)查詢到趨勢(shì)預(yù)判? ? 在數(shù)據(jù)驅(qū)動(dòng)決策的時(shí)代,預(yù)測(cè)分析作為挖掘數(shù)據(jù)潛在價(jià)值的核心手段,正被廣泛 ...
2025-07-10數(shù)據(jù)查詢結(jié)束后:分析師的收尾工作與價(jià)值深化? ? 在數(shù)據(jù)分析的全流程中,“query end”(查詢結(jié)束)并非工作的終點(diǎn),而是將數(shù) ...
2025-07-10CDA 數(shù)據(jù)分析師考試:從報(bào)考到取證的全攻略? 在數(shù)字經(jīng)濟(jì)蓬勃發(fā)展的今天,數(shù)據(jù)分析師已成為各行業(yè)爭(zhēng)搶的核心人才,而 CDA(Certi ...
2025-07-09【CDA干貨】單樣本趨勢(shì)性檢驗(yàn):捕捉數(shù)據(jù)背后的時(shí)間軌跡? 在數(shù)據(jù)分析的版圖中,單樣本趨勢(shì)性檢驗(yàn)如同一位耐心的偵探,專注于從單 ...
2025-07-09year_month數(shù)據(jù)類型:時(shí)間維度的精準(zhǔn)切片? ? 在數(shù)據(jù)的世界里,時(shí)間是最不可或缺的維度之一,而year_month數(shù)據(jù)類型就像一把精準(zhǔn) ...
2025-07-09CDA 備考干貨:Python 在數(shù)據(jù)分析中的核心應(yīng)用與實(shí)戰(zhàn)技巧? ? 在 CDA 數(shù)據(jù)分析師認(rèn)證考試中,Python 作為數(shù)據(jù)處理與分析的核心 ...
2025-07-08SPSS 中的 Mann-Kendall 檢驗(yàn):數(shù)據(jù)趨勢(shì)與突變分析的有力工具? ? ? 在數(shù)據(jù)分析的廣袤領(lǐng)域中,準(zhǔn)確捕捉數(shù)據(jù)的趨勢(shì)變化以及識(shí)別 ...
2025-07-08備戰(zhàn) CDA 數(shù)據(jù)分析師考試:需要多久?如何規(guī)劃? CDA(Certified Data Analyst)數(shù)據(jù)分析師認(rèn)證作為國(guó)內(nèi)權(quán)威的數(shù)據(jù)分析能力認(rèn)證 ...
2025-07-08LSTM 輸出不確定的成因、影響與應(yīng)對(duì)策略? 長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)作為循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的一種變體,憑借獨(dú)特的門控機(jī)制,在 ...
2025-07-07統(tǒng)計(jì)學(xué)方法在市場(chǎng)調(diào)研數(shù)據(jù)中的深度應(yīng)用? 市場(chǎng)調(diào)研是企業(yè)洞察市場(chǎng)動(dòng)態(tài)、了解消費(fèi)者需求的重要途徑,而統(tǒng)計(jì)學(xué)方法則是市場(chǎng)調(diào)研數(shù) ...
2025-07-07CDA數(shù)據(jù)分析師證書考試全攻略? 在數(shù)字化浪潮席卷全球的當(dāng)下,數(shù)據(jù)已成為企業(yè)決策、行業(yè)發(fā)展的核心驅(qū)動(dòng)力,數(shù)據(jù)分析師也因此成為 ...
2025-07-07剖析 CDA 數(shù)據(jù)分析師考試題型:解鎖高效備考與答題策略? CDA(Certified Data Analyst)數(shù)據(jù)分析師考試作為衡量數(shù)據(jù)專業(yè)能力的 ...
2025-07-04SQL Server 字符串截取轉(zhuǎn)日期:解鎖數(shù)據(jù)處理的關(guān)鍵技能? 在數(shù)據(jù)處理與分析工作中,數(shù)據(jù)格式的規(guī)范性是保證后續(xù)分析準(zhǔn)確性的基礎(chǔ) ...
2025-07-04CDA 數(shù)據(jù)分析師視角:從數(shù)據(jù)迷霧中探尋商業(yè)真相? 在數(shù)字化浪潮席卷全球的今天,數(shù)據(jù)已成為企業(yè)決策的核心驅(qū)動(dòng)力,CDA(Certifie ...
2025-07-04CDA 數(shù)據(jù)分析師:開啟數(shù)據(jù)職業(yè)發(fā)展新征程? ? 在數(shù)據(jù)成為核心生產(chǎn)要素的今天,數(shù)據(jù)分析師的職業(yè)價(jià)值愈發(fā)凸顯。CDA(Certified D ...
2025-07-03