
【機(jī)器學(xué)習(xí)】半監(jiān)督學(xué)習(xí)幾種方法
1.Self-training algorithm(自訓(xùn)練算法)
這個是最早提出的一種研究半監(jiān)督學(xué)習(xí)的算法,也是一種最簡單的半監(jiān)督學(xué)習(xí)算法.
2.Multi-view algorithm(多視角算法)
一般多用于可以進(jìn)行自然特征分裂的數(shù)據(jù)集中.考慮特殊情況(每個數(shù)據(jù)點表征兩個特征):每一個數(shù)據(jù)點看成是兩個特征的集合,然后利用協(xié)同訓(xùn)練(Co-training algorithm)進(jìn)行處理.協(xié)同訓(xùn)練(co-training)算法,此類算法隱含地利用了聚類假設(shè)或流形假設(shè),它們使用兩個或多個學(xué)習(xí)器,在學(xué)習(xí)過程中,這些學(xué)習(xí)器挑選若干個置信度高的未標(biāo)記示例進(jìn)行相互標(biāo)記,從而使得模型得以更新。
Balcan and Blum (2006) show that co-training can be quite effective, that in the extreme case only one labeled point is needed to learn the classifier. Zhou et al. (2007) give a co-training algorithm using Canonical Correlation Analysis which also need only one labeled point. Dasgupta et al. (Dasgupta et al., 2001) provide a PAC-style th-eoretical analysis.
3.Generative Models(生成模型)
以生成式模型為分類器,將未標(biāo)記示例屬于每個類別的概率視為一組缺失參數(shù),然后采用EM算法來進(jìn)行標(biāo)記估計和模型參數(shù)估計,此類算法可以看成是在少量有標(biāo)記示例周圍進(jìn)行聚類,是早期直接采用聚類假設(shè)的做法。EM算法的貪心本質(zhì)使其容易陷入局部極值,因此算法對初始值的選擇具有很強(qiáng)的依賴性.常用的解決方法是采用多組初值進(jìn)行重復(fù)運算,并從中選擇最好的一組解,或者通過復(fù)雜的優(yōu)化算法(如分裂合并EM算法)獲取參數(shù)的優(yōu)化解.這些做法盡管降低了對初始值選擇的敏感性,但卻引入了過多的運算負(fù)擔(dān)。
具體算法這里不說,我這里只說一下生成模型(Generative Models)和判別模型(Discriminative Models)的區(qū)別.
對于分類和聚類問題而言.①判別模型只關(guān)心類的決定邊界在哪里;生成模型關(guān)心的是類本身而非決定邊界.②判別模型只能判定數(shù)據(jù)點屬于哪個類別,無法將過程描述出來;生成模型可以將過程描述.③生成模型可以得到判別模型;判別模型推不出生成模型.④判別模型估計的是條件概率分布(Conditional distribution);生成模型估計的是聯(lián)合概率分布(Joint probability distribution).
常見的判別模型有:Linear discriminate analysis, Support vector machines, Boosting, Conditional random fields, Logistic regression.
常見的生成模型有:Gaussian distribution, Gaussian mixture model, Multinomial distribution, Hidden Markov model, Na?ve Bayes, Latent Dirichlet allocation.
4.Transductive SVM(轉(zhuǎn)導(dǎo)SVM)
強(qiáng)調(diào)一點,根據(jù)Vapnik的Statistical Learning Theory中提出統(tǒng)計學(xué)習(xí)中考慮兩種不同類型的推理:歸納推理(Inductive inference)和轉(zhuǎn)導(dǎo)推理(Transductive inference).轉(zhuǎn)導(dǎo)推理的目的是估計某一未知預(yù)測函數(shù)在給定興趣點上的值(而不是在該函數(shù)的全部定義域上的值).關(guān)鍵是,通過求解要求較低的問題,可以得到更精確的解.
傳統(tǒng)的推理方法是歸納-演繹方法,人們首先根據(jù)用已有的信息定義一個一般規(guī)則,然后用這個規(guī)則來推斷所需要的答案.也就是說,首先從特殊到一般,然后從一般到特殊.但是在轉(zhuǎn)導(dǎo)模式中,我們進(jìn)行直接的從特殊到特殊的推理,避免了推理中的不適定部分.
5.Graph-Based Algorithms(基于圖的算法)
是基于圖正則化框架的半監(jiān)督學(xué)習(xí)算法,此類算法直接或間接地利用了流形假設(shè),它們通常先根據(jù)訓(xùn)練例及某種相似度度量建立一個圖,圖中結(jié)點對應(yīng)了(有標(biāo)記或未標(biāo)記)示例,邊為示例間的相似度,然后,定義所需優(yōu)化的目標(biāo)函數(shù)并使用決策函數(shù)在圖上的光滑性作為正則化項來求取最優(yōu)模型參數(shù)
Which method should I choose ?
This may be difficult in reality. Nonetheless we can try the following checklist: Do the classes producewell clustered data? If yes, EM with generative mixture models may be a good choice; Do the features naturally split into two sets? If yes, co-training may be appropriate; Is it true that two points with similar features tend to be in the same class? If yes, graph-based methods can be used; Already using SVM? Transductive SVM is a natural extension; Is the existing supervised classifier complicated and hard to modify? Self-training is a practical wrapper method.
Where can I learn more?
A: An existing survey can be found in (Seeger, 2001).
數(shù)據(jù)分析咨詢請掃描二維碼
若不方便掃碼,搜微信號:CDAshujufenxi
LSTM 模型輸入長度選擇技巧:提升序列建模效能的關(guān)鍵? 在循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)家族中,長短期記憶網(wǎng)絡(luò)(LSTM)憑借其解決長序列 ...
2025-07-11CDA 數(shù)據(jù)分析師報考條件詳解與準(zhǔn)備指南? ? 在數(shù)據(jù)驅(qū)動決策的時代浪潮下,CDA 數(shù)據(jù)分析師認(rèn)證愈發(fā)受到矚目,成為眾多有志投身數(shù) ...
2025-07-11數(shù)據(jù)透視表中兩列相乘合計的實用指南? 在數(shù)據(jù)分析的日常工作中,數(shù)據(jù)透視表憑借其強(qiáng)大的數(shù)據(jù)匯總和分析功能,成為了 Excel 用戶 ...
2025-07-11尊敬的考生: 您好! 我們誠摯通知您,CDA Level I和 Level II考試大綱將于 2025年7月25日 實施重大更新。 此次更新旨在確保認(rèn) ...
2025-07-10BI 大數(shù)據(jù)分析師:連接數(shù)據(jù)與業(yè)務(wù)的價值轉(zhuǎn)化者? ? 在大數(shù)據(jù)與商業(yè)智能(Business Intelligence,簡稱 BI)深度融合的時代,BI ...
2025-07-10SQL 在預(yù)測分析中的應(yīng)用:從數(shù)據(jù)查詢到趨勢預(yù)判? ? 在數(shù)據(jù)驅(qū)動決策的時代,預(yù)測分析作為挖掘數(shù)據(jù)潛在價值的核心手段,正被廣泛 ...
2025-07-10數(shù)據(jù)查詢結(jié)束后:分析師的收尾工作與價值深化? ? 在數(shù)據(jù)分析的全流程中,“query end”(查詢結(jié)束)并非工作的終點,而是將數(shù) ...
2025-07-10CDA 數(shù)據(jù)分析師考試:從報考到取證的全攻略? 在數(shù)字經(jīng)濟(jì)蓬勃發(fā)展的今天,數(shù)據(jù)分析師已成為各行業(yè)爭搶的核心人才,而 CDA(Certi ...
2025-07-09【CDA干貨】單樣本趨勢性檢驗:捕捉數(shù)據(jù)背后的時間軌跡? 在數(shù)據(jù)分析的版圖中,單樣本趨勢性檢驗如同一位耐心的偵探,專注于從單 ...
2025-07-09year_month數(shù)據(jù)類型:時間維度的精準(zhǔn)切片? ? 在數(shù)據(jù)的世界里,時間是最不可或缺的維度之一,而year_month數(shù)據(jù)類型就像一把精準(zhǔn) ...
2025-07-09CDA 備考干貨:Python 在數(shù)據(jù)分析中的核心應(yīng)用與實戰(zhàn)技巧? ? 在 CDA 數(shù)據(jù)分析師認(rèn)證考試中,Python 作為數(shù)據(jù)處理與分析的核心 ...
2025-07-08SPSS 中的 Mann-Kendall 檢驗:數(shù)據(jù)趨勢與突變分析的有力工具? ? ? 在數(shù)據(jù)分析的廣袤領(lǐng)域中,準(zhǔn)確捕捉數(shù)據(jù)的趨勢變化以及識別 ...
2025-07-08備戰(zhàn) CDA 數(shù)據(jù)分析師考試:需要多久?如何規(guī)劃? CDA(Certified Data Analyst)數(shù)據(jù)分析師認(rèn)證作為國內(nèi)權(quán)威的數(shù)據(jù)分析能力認(rèn)證 ...
2025-07-08LSTM 輸出不確定的成因、影響與應(yīng)對策略? 長短期記憶網(wǎng)絡(luò)(LSTM)作為循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的一種變體,憑借獨特的門控機(jī)制,在 ...
2025-07-07統(tǒng)計學(xué)方法在市場調(diào)研數(shù)據(jù)中的深度應(yīng)用? 市場調(diào)研是企業(yè)洞察市場動態(tài)、了解消費者需求的重要途徑,而統(tǒng)計學(xué)方法則是市場調(diào)研數(shù) ...
2025-07-07CDA數(shù)據(jù)分析師證書考試全攻略? 在數(shù)字化浪潮席卷全球的當(dāng)下,數(shù)據(jù)已成為企業(yè)決策、行業(yè)發(fā)展的核心驅(qū)動力,數(shù)據(jù)分析師也因此成為 ...
2025-07-07剖析 CDA 數(shù)據(jù)分析師考試題型:解鎖高效備考與答題策略? CDA(Certified Data Analyst)數(shù)據(jù)分析師考試作為衡量數(shù)據(jù)專業(yè)能力的 ...
2025-07-04SQL Server 字符串截取轉(zhuǎn)日期:解鎖數(shù)據(jù)處理的關(guān)鍵技能? 在數(shù)據(jù)處理與分析工作中,數(shù)據(jù)格式的規(guī)范性是保證后續(xù)分析準(zhǔn)確性的基礎(chǔ) ...
2025-07-04CDA 數(shù)據(jù)分析師視角:從數(shù)據(jù)迷霧中探尋商業(yè)真相? 在數(shù)字化浪潮席卷全球的今天,數(shù)據(jù)已成為企業(yè)決策的核心驅(qū)動力,CDA(Certifie ...
2025-07-04CDA 數(shù)據(jù)分析師:開啟數(shù)據(jù)職業(yè)發(fā)展新征程? ? 在數(shù)據(jù)成為核心生產(chǎn)要素的今天,數(shù)據(jù)分析師的職業(yè)價值愈發(fā)凸顯。CDA(Certified D ...
2025-07-03