
機器學(xué)習(xí)之徑向基神經(jīng)網(wǎng)絡(luò)
本文基于臺大機器學(xué)習(xí)技法系列課程進行的筆記總結(jié)。
主要內(nèi)容如下圖所示:
首先介紹一下徑向基函數(shù)網(wǎng)絡(luò)的Hypothesis和網(wǎng)絡(luò)的結(jié)構(gòu),然后介紹徑向基神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法,以及利用K-means進行的學(xué)習(xí),最后通過一個實例加深對RBF神經(jīng)網(wǎng)絡(luò)認識和理解。
RBF神經(jīng)網(wǎng)絡(luò)的Hypothesis和網(wǎng)絡(luò)結(jié)構(gòu)
我們從基于Gaussian kernel的support vector machine中在無限維度中進行特征轉(zhuǎn)換來獲取一個large margin的邊界,這個Gaussian kernel就是一個Radio Basis Function Kernel。其意義呢有兩個:一是radio,代表的是x和中心點xm之間的距離,可以是任意衡量距離的某種范數(shù),比如L2范數(shù)等;二是Basis,表示要進行聯(lián)合(combine);于是就可以得到了以下關(guān)于RBF神經(jīng)網(wǎng)絡(luò)的更加質(zhì)樸的定義:如下圖所示,RBF神經(jīng)網(wǎng)絡(luò)實際上就是一些選擇出來的radial徑向hypothesis的線性組合。
那么為何是神經(jīng)網(wǎng)絡(luò)呢?我們看如下圖所示的結(jié)構(gòu)對比,從中可以看出兩者的隱含層(hidden layer)不同,即RBF神經(jīng)網(wǎng)絡(luò)采用的激發(fā)函數(shù)或者映射是徑向基函數(shù)(距離+高斯)等,而輸出層都一樣,是特征轉(zhuǎn)換后的線性融合。
這樣就得到了RBF的神經(jīng)網(wǎng)絡(luò)的Hypothesis,如下圖所示,如果還記得kernel svm的hypothesis的話(representation theory),我們得到的SVM的Hypothesis實際上就是support vector的線性組合,即影響我們最后得到的hypothesis只是與這些“代表”的點有關(guān)。類似的,RBF也是如此,我們需要找到一些能夠代表數(shù)據(jù)的中心點( center )。所以我們在進行訓(xùn)練學(xué)習(xí)的時候要做的就是:給定的徑向基函數(shù)(RBF)和輸出,然后決定這些center和線性組合的系數(shù)β。另外一個值得提出的就是從另一個角度來看徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)與其他前饋神經(jīng)網(wǎng)絡(luò)的關(guān)系,可以參考我的另一篇博文中的總結(jié):神經(jīng)網(wǎng)絡(luò)總結(jié)(初稿),關(guān)鍵點就是從BP神經(jīng)網(wǎng)絡(luò)到徑向基函數(shù)神經(jīng)網(wǎng)絡(luò),一個明顯的特征就是我們不用在對所有全局的鏈接權(quán)重進行訓(xùn)練,而是只對一些重要的影響輸出的權(quán)重進行調(diào)整,這樣就能明顯提升神經(jīng)網(wǎng)絡(luò)的訓(xùn)練速度。
另一個重要的內(nèi)容就是Gaussian的徑向基函數(shù)實際上做的就是一種相似度的測量,而且是在原始空間的相似度測量。而特征轉(zhuǎn)換就是距離與中心點的相似度的轉(zhuǎn)換。
Full RBF神經(jīng)網(wǎng)絡(luò)
full RBF神經(jīng)網(wǎng)絡(luò)實際上就是一個非常lazy的RBF神經(jīng)網(wǎng)絡(luò)。之所以lazy講的它根本不做center,也就是它把所有觀測到的數(shù)據(jù)都作為center,也就是輸入size為N,那么center的size也是N。即一種uniform的形式,融合每一個輸入數(shù)據(jù)到所有訓(xùn)練樣本點的相似度。如下圖所示:
最近鄰模型(Nearest neighbor)
思想就是我們對所有經(jīng)過hypothesis得到的輸出進行投票(vote,aggregation),而是選擇在相似度上與已知樣本點最近的那個點的標(biāo)簽作為輸出。這就是典型的最近鄰模型。所以這樣看上去訓(xùn)練就比較簡單了,實際上只用把觀測到的數(shù)據(jù)保存下來就好,但測試過程則比較復(fù)雜,因為要對所有的已知標(biāo)簽的樣本點進行相似度的計算,然后選出最近鄰的那個,并輸出該樣本的標(biāo)簽。稍微拓展一下,我們還是可以做融合的,我們選出最相似的k個鄰居,然后由著k個鄰居進行投票,或者線性融合,然后再輸出,這樣的模型就叫做k最近鄰模型。
Regularization
那如果利用full RBF神經(jīng)網(wǎng)絡(luò)進行regression呢情況又變成怎樣呢,如下圖所示:
從中可以看出,經(jīng)過以上設(shè)計進行訓(xùn)練我們將得到Ein=0,這在內(nèi)插法逼近函數(shù)的時候是非常好的,可是我們知道這樣好的Ein往往有可能出現(xiàn)overfitting,所以需要進行regularization的設(shè)計。常見的方法就是加約束項或懲罰函數(shù)。在不同的空間做regularization有著不同的結(jié)果。另一中regularization的方法就是限制center的數(shù)量,我們用few center進行,而不是full,這樣就能在一定程度上降低模型復(fù)雜度。那么如何從一堆X中萃取中心點呢?萃取的標(biāo)準(zhǔn)又是什么呢?
于是問題就轉(zhuǎn)向了聚類問題cluster problem。
聚類問題cluster problem(K-means)
聚類問題的數(shù)學(xué)描述如下圖所示,通過優(yōu)化聚類誤差(采用了平方誤差)進行。
于是就引出了非常著名的K-means聚類算法,具體內(nèi)容參看我的另一篇博客K-means算法
把K-means 應(yīng)用到RBF神經(jīng)網(wǎng)絡(luò)中
那么將K-means方法用到RBF神經(jīng)網(wǎng)絡(luò)中,就可以得到以下的流程
下面幾個就是利用k-means算法流程進行的實驗結(jié)果
對比了采用regularization的full RBF、采用了few center(K-means)的RBF以及基于nearest neighbor的Full RBF實驗效果圖,從圖中可以看出,雖然full RBF效果可能要比k-means的效果要好,可是一般來講由于計算復(fù)雜度和overfitting的風(fēng)險等原因一般不常常使用。
*************************************************************************************************************************************
對于徑向基函數(shù)神經(jīng)網(wǎng)絡(luò),只要抓住它的hypothesis的質(zhì)樸表示:一堆center的相似度(Gaussian RBF)的線性融合(vote,linear aggregation)就好了。完成的特征轉(zhuǎn)換就是距離到相似度。輸出就是相似度的線性組合。
然后中間涉及到的三個比較重要的內(nèi)容就是:1. 最近鄰思想;2. K-means算法;3. alternating optimization的思想。能夠掌握上面三個重要內(nèi)容就非常好了。
數(shù)據(jù)分析咨詢請掃描二維碼
若不方便掃碼,搜微信號:CDAshujufenxi
LSTM 模型輸入長度選擇技巧:提升序列建模效能的關(guān)鍵? 在循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)家族中,長短期記憶網(wǎng)絡(luò)(LSTM)憑借其解決長序列 ...
2025-07-11CDA 數(shù)據(jù)分析師報考條件詳解與準(zhǔn)備指南? ? 在數(shù)據(jù)驅(qū)動決策的時代浪潮下,CDA 數(shù)據(jù)分析師認證愈發(fā)受到矚目,成為眾多有志投身數(shù) ...
2025-07-11數(shù)據(jù)透視表中兩列相乘合計的實用指南? 在數(shù)據(jù)分析的日常工作中,數(shù)據(jù)透視表憑借其強大的數(shù)據(jù)匯總和分析功能,成為了 Excel 用戶 ...
2025-07-11尊敬的考生: 您好! 我們誠摯通知您,CDA Level I和 Level II考試大綱將于 2025年7月25日 實施重大更新。 此次更新旨在確保認 ...
2025-07-10BI 大數(shù)據(jù)分析師:連接數(shù)據(jù)與業(yè)務(wù)的價值轉(zhuǎn)化者? ? 在大數(shù)據(jù)與商業(yè)智能(Business Intelligence,簡稱 BI)深度融合的時代,BI ...
2025-07-10SQL 在預(yù)測分析中的應(yīng)用:從數(shù)據(jù)查詢到趨勢預(yù)判? ? 在數(shù)據(jù)驅(qū)動決策的時代,預(yù)測分析作為挖掘數(shù)據(jù)潛在價值的核心手段,正被廣泛 ...
2025-07-10數(shù)據(jù)查詢結(jié)束后:分析師的收尾工作與價值深化? ? 在數(shù)據(jù)分析的全流程中,“query end”(查詢結(jié)束)并非工作的終點,而是將數(shù) ...
2025-07-10CDA 數(shù)據(jù)分析師考試:從報考到取證的全攻略? 在數(shù)字經(jīng)濟蓬勃發(fā)展的今天,數(shù)據(jù)分析師已成為各行業(yè)爭搶的核心人才,而 CDA(Certi ...
2025-07-09【CDA干貨】單樣本趨勢性檢驗:捕捉數(shù)據(jù)背后的時間軌跡? 在數(shù)據(jù)分析的版圖中,單樣本趨勢性檢驗如同一位耐心的偵探,專注于從單 ...
2025-07-09year_month數(shù)據(jù)類型:時間維度的精準(zhǔn)切片? ? 在數(shù)據(jù)的世界里,時間是最不可或缺的維度之一,而year_month數(shù)據(jù)類型就像一把精準(zhǔn) ...
2025-07-09CDA 備考干貨:Python 在數(shù)據(jù)分析中的核心應(yīng)用與實戰(zhàn)技巧? ? 在 CDA 數(shù)據(jù)分析師認證考試中,Python 作為數(shù)據(jù)處理與分析的核心 ...
2025-07-08SPSS 中的 Mann-Kendall 檢驗:數(shù)據(jù)趨勢與突變分析的有力工具? ? ? 在數(shù)據(jù)分析的廣袤領(lǐng)域中,準(zhǔn)確捕捉數(shù)據(jù)的趨勢變化以及識別 ...
2025-07-08備戰(zhàn) CDA 數(shù)據(jù)分析師考試:需要多久?如何規(guī)劃? CDA(Certified Data Analyst)數(shù)據(jù)分析師認證作為國內(nèi)權(quán)威的數(shù)據(jù)分析能力認證 ...
2025-07-08LSTM 輸出不確定的成因、影響與應(yīng)對策略? 長短期記憶網(wǎng)絡(luò)(LSTM)作為循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的一種變體,憑借獨特的門控機制,在 ...
2025-07-07統(tǒng)計學(xué)方法在市場調(diào)研數(shù)據(jù)中的深度應(yīng)用? 市場調(diào)研是企業(yè)洞察市場動態(tài)、了解消費者需求的重要途徑,而統(tǒng)計學(xué)方法則是市場調(diào)研數(shù) ...
2025-07-07CDA數(shù)據(jù)分析師證書考試全攻略? 在數(shù)字化浪潮席卷全球的當(dāng)下,數(shù)據(jù)已成為企業(yè)決策、行業(yè)發(fā)展的核心驅(qū)動力,數(shù)據(jù)分析師也因此成為 ...
2025-07-07剖析 CDA 數(shù)據(jù)分析師考試題型:解鎖高效備考與答題策略? CDA(Certified Data Analyst)數(shù)據(jù)分析師考試作為衡量數(shù)據(jù)專業(yè)能力的 ...
2025-07-04SQL Server 字符串截取轉(zhuǎn)日期:解鎖數(shù)據(jù)處理的關(guān)鍵技能? 在數(shù)據(jù)處理與分析工作中,數(shù)據(jù)格式的規(guī)范性是保證后續(xù)分析準(zhǔn)確性的基礎(chǔ) ...
2025-07-04CDA 數(shù)據(jù)分析師視角:從數(shù)據(jù)迷霧中探尋商業(yè)真相? 在數(shù)字化浪潮席卷全球的今天,數(shù)據(jù)已成為企業(yè)決策的核心驅(qū)動力,CDA(Certifie ...
2025-07-04CDA 數(shù)據(jù)分析師:開啟數(shù)據(jù)職業(yè)發(fā)展新征程? ? 在數(shù)據(jù)成為核心生產(chǎn)要素的今天,數(shù)據(jù)分析師的職業(yè)價值愈發(fā)凸顯。CDA(Certified D ...
2025-07-03