99999久久久久久亚洲,欧美人与禽猛交狂配,高清日韩av在线影院,一个人在线高清免费观看,啦啦啦在线视频免费观看www

熱線電話:13121318867

登錄
首頁精彩閱讀機器學習與數(shù)據(jù)挖掘的學習路線圖
機器學習與數(shù)據(jù)挖掘的學習路線圖
2018-07-04
收藏

機器學習數(shù)據(jù)挖掘的學習路線圖

說起機器學習數(shù)據(jù)挖掘,當然兩者并不完全等同。如果想簡單的理清二者的關(guān)系,不妨這樣來理解,機器學習應(yīng)用在數(shù)據(jù)分析領(lǐng)域 = 數(shù)據(jù)挖掘。同理,如果將機器學習應(yīng)用在圖像處理領(lǐng)域 = 機器視覺。當然這只是一種比較直白的理解,并不能見得絕對準確或者全面。我們權(quán)且這樣處理。而且在本文后面若提到這兩個名詞,我們所表示的意思是一致的。

但無論是機器學習,還是數(shù)據(jù)挖掘,你一定聽說過很多很多,名字叼炸天的傳說中的,“算法”,比如:SVM,神經(jīng)網(wǎng)絡(luò),Logistic回歸,決策樹、EM、HMM、貝葉斯網(wǎng)絡(luò)、隨機森林、LDA... ....其實還是很多很多!無論你排十大算法還是二十大算法,總感覺只觸及到了冰山一角!真是學海無涯啊- -!!

當然,學習機器學習看書是必備的,總不能靠冥想吧。。。

有的書介紹機器學習,會是這樣一種思路:就是單獨的一個一個的算法介紹,介紹個十幾個,一本書的篇幅差不多也就完了。

李航博士的那本《統(tǒng)計學習方法》基本屬于這種套路。當然,該書在國內(nèi)是備受推崇的一本??陀^上講,國人寫這方面的書很少,而李博士的著作也不像其他那種大學教材一樣東拼西湊,可謂良心之作。但就本書的思路來說,我認為:如果讀者就單獨的某一個算法想有所了解,參考該書應(yīng)該會有收獲。但系統(tǒng)化上還是優(yōu)化空間的,比如從一個算法到另外一個算法,之間的聯(lián)系是什么,推動算法更新和升級的需求又在哪里?

另外一種該類型的書,會把算法按照它們的實現(xiàn)的功能和目的,分成比如 Regression、Classification、Clustering等等等等的幾類,然后各種講可以實現(xiàn)聚類的算法有A、B、C,可以實現(xiàn)回歸的有D、E、F。。。而且我們也知道,機器學習又可分為有監(jiān)督、無監(jiān)督以及半監(jiān)督的,或者又可分為貝葉斯派和概率派兩大陣營,所以按類別來介紹其中的算法也是一種很常見的思路。

這樣的書代表作是Pang-Ning Tan, Michael Steinbach 和Vipin Kumar的那本《數(shù)據(jù)挖掘導論》,這樣的書基本上對于構(gòu)建一個大概的機器學習體系還是有裨益的。但是就初學者而言,其實這個體系還可以再優(yōu)化。這也是我根據(jù)個人的一些經(jīng)驗想向各位介紹的一個基本的學習路線圖,在我看來知識應(yīng)該是有聯(lián)系的,而不是孤立的, 找到這種內(nèi)部隱藏的線索就如同獲得了阿里巴巴的口訣,才能開啟更大的寶藏。

當然,正式學習之前,你所需要的預(yù)備知識(主要是數(shù)學)應(yīng)該包括:微積分(偏導數(shù)、梯度等等)、概率論與數(shù)理統(tǒng)計(例如極大似然估計、中央極限定理、大數(shù)法則等等)、最優(yōu)化方法(比如梯度下降、牛頓-拉普什方法、變分法(歐拉-拉格朗日方程)、凸優(yōu)化等等)——如果你對其中的某些名詞感到陌生,那么就說明你尚不具備深入開展數(shù)據(jù)挖掘算法學習的能力。你會發(fā)現(xiàn)到處都是門檻,很難繼續(xù)進行下去。

第一條線路:

(基于普通最小二乘法的)簡單線性回歸->線性回歸中的新進展(嶺回歸和LASSO回歸)->(此處可以插入BaggingAdaBoost的內(nèi)容)->Logistic回歸->支持向量機SVM)->感知機學習->神經(jīng)網(wǎng)絡(luò)(初學者可先主要關(guān)注BP算法)->深度學習

之所以把它們歸為一條線路,因為所有這些算法都是圍繞著 y = Σxiβi,這樣一條簡單的公式展開的,如果你抓住這條線索,不斷探索下去,就算是抓住它們之間的繩索了。其中藍色部分主要是回歸,綠色部分主要是有監(jiān)督的分類學習法。

基于普通最小二乘線性回歸是統(tǒng)計中一種有著非常悠久歷史的方法,它的使用甚至可以追溯到高斯的時代。但是它對數(shù)據(jù)有諸多要求,例如特征之間不能有多重共線性,而且?guī)X回歸和LASSO就是對這些問題的修正。

當沿著第一條路線學完的時候,其實你已經(jīng)攻克機器學習的半壁江山了!當然,在這個過程中,你一定時刻問問自己后一個算法與前一個的聯(lián)系在哪里?最初,人們從哪里出發(fā),才會如此設(shè)計出它們的。

第二條路線:

K-means -> EM -> 樸素貝葉斯->貝葉斯網(wǎng)絡(luò)->隱馬爾科夫模型(基本模型,前向算法,維特比算法,前向-后向算法) (->卡爾曼濾波)

這條線路所涉及的基本都是那些各種畫來畫去的圖模型,一個學術(shù)名詞是 PGM 。這條線的思路和第一條是截然不同的!貝葉斯網(wǎng)絡(luò)、HMM(隱馬爾科夫模型),也就是綠色字體的部分是這個線路中的核心內(nèi)容。而藍色部分是為綠色內(nèi)容做準備的部分。K-means 和 EM 具有與生俱來的聯(lián)系,認識到這一點才能說明你真正讀懂了它們。而EM算法要在HMM的模型訓練中用到,所以你要先學EM才能深入學習HMM。所以盡管在EM中看不到那種畫來畫去的圖模型,但我還把它放在了這條線路中,這也就是原因所在。樸素貝葉斯里面的很多內(nèi)容在,貝葉斯網(wǎng)絡(luò)和HMM里都會用到,類似貝葉斯定理,先驗和后驗概率,邊緣分布等等(主要是概念性的)。最后,卡爾曼濾波可以作為HMM的一直深入或者后續(xù)擴展。盡管很多machine learning的書里沒把它看做是一種機器學習算法(或許那些作者認為它應(yīng)該是信號處理中的內(nèi)容),但是它也確實可以被看成是一種機器學習技術(shù)。而且參考文獻[4]中,作者也深刻地揭示了它與HMM之間的緊密聯(lián)系,所以紅色的部分可以作為HMM的后續(xù)擴展延伸內(nèi)容。


數(shù)據(jù)分析咨詢請掃描二維碼

若不方便掃碼,搜微信號:CDAshujufenxi

數(shù)據(jù)分析師資訊
更多

OK
客服在線
立即咨詢
客服在線
立即咨詢
') } function initGt() { var handler = function (captchaObj) { captchaObj.appendTo('#captcha'); captchaObj.onReady(function () { $("#wait").hide(); }).onSuccess(function(){ $('.getcheckcode').removeClass('dis'); $('.getcheckcode').trigger('click'); }); window.captchaObj = captchaObj; }; $('#captcha').show(); $.ajax({ url: "/login/gtstart?t=" + (new Date()).getTime(), // 加隨機數(shù)防止緩存 type: "get", dataType: "json", success: function (data) { $('#text').hide(); $('#wait').show(); // 調(diào)用 initGeetest 進行初始化 // 參數(shù)1:配置參數(shù) // 參數(shù)2:回調(diào),回調(diào)的第一個參數(shù)驗證碼對象,之后可以使用它調(diào)用相應(yīng)的接口 initGeetest({ // 以下 4 個配置參數(shù)為必須,不能缺少 gt: data.gt, challenge: data.challenge, offline: !data.success, // 表示用戶后臺檢測極驗服務(wù)器是否宕機 new_captcha: data.new_captcha, // 用于宕機時表示是新驗證碼的宕機 product: "float", // 產(chǎn)品形式,包括:float,popup width: "280px", https: true // 更多配置參數(shù)說明請參見:http://docs.geetest.com/install/client/web-front/ }, handler); } }); } function codeCutdown() { if(_wait == 0){ //倒計時完成 $(".getcheckcode").removeClass('dis').html("重新獲取"); }else{ $(".getcheckcode").addClass('dis').html("重新獲取("+_wait+"s)"); _wait--; setTimeout(function () { codeCutdown(); },1000); } } function inputValidate(ele,telInput) { var oInput = ele; var inputVal = oInput.val(); var oType = ele.attr('data-type'); var oEtag = $('#etag').val(); var oErr = oInput.closest('.form_box').next('.err_txt'); var empTxt = '請輸入'+oInput.attr('placeholder')+'!'; var errTxt = '請輸入正確的'+oInput.attr('placeholder')+'!'; var pattern; if(inputVal==""){ if(!telInput){ errFun(oErr,empTxt); } return false; }else { switch (oType){ case 'login_mobile': pattern = /^1[3456789]\d{9}$/; if(inputVal.length==11) { $.ajax({ url: '/login/checkmobile', type: "post", dataType: "json", data: { mobile: inputVal, etag: oEtag, page_ur: window.location.href, page_referer: document.referrer }, success: function (data) { } }); } break; case 'login_yzm': pattern = /^\d{6}$/; break; } if(oType=='login_mobile'){ } if(!!validateFun(pattern,inputVal)){ errFun(oErr,'') if(telInput){ $('.getcheckcode').removeClass('dis'); } }else { if(!telInput) { errFun(oErr, errTxt); }else { $('.getcheckcode').addClass('dis'); } return false; } } return true; } function errFun(obj,msg) { obj.html(msg); if(msg==''){ $('.login_submit').removeClass('dis'); }else { $('.login_submit').addClass('dis'); } } function validateFun(pat,val) { return pat.test(val); }