99999久久久久久亚洲,欧美人与禽猛交狂配,高清日韩av在线影院,一个人在线高清免费观看,啦啦啦在线视频免费观看www

熱線電話:13121318867

登錄
首頁(yè)精彩閱讀機(jī)器學(xué)習(xí)和計(jì)算機(jī)視覺(jué)相關(guān)的數(shù)學(xué)_數(shù)據(jù)分析師
機(jī)器學(xué)習(xí)和計(jì)算機(jī)視覺(jué)相關(guān)的數(shù)學(xué)_數(shù)據(jù)分析師
2015-01-18
收藏

機(jī)器學(xué)習(xí)計(jì)算機(jī)視覺(jué)相關(guān)的數(shù)學(xué)_數(shù)據(jù)分析師


機(jī)器學(xué)習(xí)計(jì)算機(jī)視覺(jué)都是很多種數(shù)學(xué)的交匯場(chǎng)??粗煌睦碚擉w系的交匯,對(duì)于一個(gè)researcher來(lái)說(shuō),往往是非常exciting的enjoyable的事情。不過(guò),這也代表著要充分了解這個(gè)領(lǐng)域并且取得有意義的進(jìn)展是很艱苦的。

Linear Algebra (線性代數(shù)) 和 Statistics (統(tǒng)計(jì)學(xué)) 是最重要和不可缺少的。

這代表了Machine Learning中最主流的兩大類方法的基礎(chǔ)。一種是以研究函數(shù)和變換為重點(diǎn)的代數(shù)方法,比如Dimension reduction,feature extraction,Kernel等,一種是以研究統(tǒng)計(jì)模型和樣本分布為重點(diǎn)的統(tǒng)計(jì)方法,比如Graphical model, Information theoretical models等。它們側(cè)重雖有不同,但是常常是共同使用的,對(duì)于代數(shù)方法,往往需要統(tǒng)計(jì)上的解釋,對(duì)于統(tǒng)計(jì)模型,其具體計(jì)算則需要代數(shù)的幫助。以代數(shù)和統(tǒng)計(jì)為出發(fā)點(diǎn),繼續(xù)往深處走,我們會(huì)發(fā)現(xiàn)需要更多的數(shù)學(xué)。

Calculus (微積分),只是數(shù)學(xué)分析體系的基礎(chǔ)。

其基礎(chǔ)性作用不言而喻。Learning研究的大部分問(wèn)題是在連續(xù)的度量空間進(jìn)行的,無(wú)論代數(shù)還是統(tǒng)計(jì),在研究?jī)?yōu)化問(wèn)題的時(shí)候,對(duì)一個(gè)映射的微分或者梯度的分析總是不可避免。而在統(tǒng)計(jì)學(xué)中,Marginalization和積分更是密不可分——不過(guò),以解析形式把積分導(dǎo)出來(lái)的情況則不多見(jiàn)。

Partial Differential Equation (偏微分方程),這主要用于描述動(dòng)態(tài)過(guò)程,或者仿動(dòng)態(tài)過(guò)程。

這個(gè)學(xué)科在Vision中用得比Learning多,主要用于描述連續(xù)場(chǎng)的運(yùn)動(dòng)或者擴(kuò)散過(guò)程。比如Level set, Optical flow都是這方面的典型例子。

Functional Analysis (泛函分析),通俗地,可以理解為微積分從有限維空間到無(wú)限維空間的拓展——當(dāng)然了,它實(shí)際上遠(yuǎn)不止于此。
在這個(gè)地方,函數(shù)以及其所作用的對(duì)象之間存在的對(duì)偶關(guān)系扮演了非常重要的角色。Learning發(fā)展至今,也在向無(wú)限維延伸——從研究有限維向量的問(wèn)題到以無(wú)限維的函數(shù)為研究對(duì)象。Kernel Learning 和Gaussian Process 是其中典型的例子——其中的核心概念都是Kernel。很多做Learning的人把Kernel簡(jiǎn)單理解為Kernel trick的運(yùn)用,這就把kernel的意義嚴(yán)重弱化了。在泛函里面,Kernel (Inner Product)是建立整個(gè)博大的代數(shù)體系的根本,從metric, transform到spectrum都根源于此。

Measure Theory (測(cè)度理論),這是和實(shí)分析關(guān)系非常密切的學(xué)科。但是測(cè)度理論并不限于此。

從某種意義上說(shuō),Real Analysis可以從Lebesgue Measure(勒貝格測(cè)度)推演,不過(guò)其實(shí)還有很多別的測(cè)度體系——概率本身就是一種測(cè)度。測(cè)度理論對(duì)于Learning的意義是根本的,現(xiàn)代統(tǒng)計(jì)學(xué)整個(gè)就是建立在測(cè)度理論的基礎(chǔ)之上——雖然初級(jí)的概率論教科書一般不這樣引入。在看一些統(tǒng)計(jì)方面的文章的時(shí)候,你可能會(huì)發(fā)現(xiàn),它們會(huì)把統(tǒng)計(jì)的公式改用測(cè)度來(lái)表達(dá),這樣做有兩個(gè)好處:所有的推導(dǎo)和結(jié)論不用分別給連續(xù)分布和離散分布各自寫一遍了,這兩種東西都可以用同一的測(cè)度形式表達(dá):連續(xù)分布的積分基于Lebesgue測(cè)度,離散分布的求和基于計(jì)數(shù)測(cè)度,而且還能推廣到那種既不連續(xù)又不離散的分布中去(這種東西不是數(shù)學(xué)家的游戲,而是已經(jīng)在實(shí)用的東西,在Dirchlet Process或者Pitman-Yor Process里面會(huì)經(jīng)常看到)。而且,即使是連續(xù)積分,如果不是在歐氏空間進(jìn)行,而是在更一般的拓?fù)淇臻g(比如微分流形或者變換群),那么傳統(tǒng)的黎曼積分(就是大學(xué)一年級(jí)在微積分課學(xué)的那種)就不work了,你可能需要它們的一些推廣,比如Haar Measure或者Lebesgue-Stieltjes積分。

Topology(拓?fù)鋵W(xué)),這是學(xué)術(shù)中很基礎(chǔ)的學(xué)科。

它一般不直接提供方法,但是它的很多概念和定理是其它數(shù)學(xué)分支的基石??春芏鄤e的數(shù)學(xué)的時(shí)候,你會(huì)經(jīng)常接觸這樣一些概念:Open set / Closed set,set basis,Hausdauf, continuous function,metric space, Cauchy sequence, neighborhood, compactness, connectivity。很多這些也許在大學(xué)一年級(jí)就學(xué)習(xí)過(guò)一些,當(dāng)時(shí)是基于極限的概念獲得的。如果,看過(guò)拓?fù)鋵W(xué)之后,對(duì)這些概念的認(rèn)識(shí)會(huì)有根本性的拓展。比如,連續(xù)函數(shù),當(dāng)時(shí)是由epison法定義的,就是無(wú)論取多小的正數(shù)epsilon,都存在xxx,使得xxx。這是需要一種metric去度量距離的,在general topology里面,對(duì)于連續(xù)函數(shù)的定義連坐標(biāo)和距離都不需要——如果一個(gè)映射使得開集的原像是開集,它就是連續(xù)的——至于開集是基于集合論定義的,不是通常的開區(qū)間的意思。這只是最簡(jiǎn)單的例子。當(dāng)然,我們研究learning也許不需要深究這些數(shù)學(xué)概念背后的公理體系,但是,打破原來(lái)定義的概念的局限在很多問(wèn)題上是必須的——尤其是當(dāng)你研究的東西它不是在歐氏空間里面的時(shí)候——正交矩陣,變換群,流形,概率分布的空間,都屬于此。

Differential Manifold (微分流形),通俗地說(shuō)它研究的是平滑的曲面。

一個(gè)直接的印象是它是不是可以用來(lái)fitting一個(gè)surface什么的——當(dāng)然這算是一種應(yīng)用,但是這是非常初步的。本質(zhì)上說(shuō),微分流形研究的是平滑的拓?fù)浣Y(jié)構(gòu)。一個(gè)空間構(gòu)成微分流形的基本要素是局部平滑:從拓?fù)鋵W(xué)來(lái)理解,就是它的任意局部都同胚于歐氏空間,從解析的角度來(lái)看,就是相容的局部坐標(biāo)系統(tǒng)。當(dāng)然,在全局上,它不要求和歐氏空間同胚。它除了可以用于刻畫集合上的平滑曲面外,更重要的意義在于,它可以用于研究很多重要的集合。一個(gè)n-維線性空間的全部k-維子空間(k

Lie Group Theory (李群論),一般意義的群論在Learning中被運(yùn)用的不是很多,群論在Learning中用得較多的是它的一個(gè)重要方向Lie group。

定義在平滑流形上的群,并且其群運(yùn)算是平滑的話,那么這就叫李群。因?yàn)長(zhǎng)earning和編碼不同,更多關(guān)注的是連續(xù)空間,因?yàn)長(zhǎng)ie group在各種群中對(duì)于Learning特別重要。各種子空間,線性變換,非奇異矩陣都基于通常意義的矩陣乘法構(gòu)成李群。在李群中的映射,變換,度量,劃分等等都對(duì)于Learning中代數(shù)方法的研究有重要指導(dǎo)意義。

Graph Theory(圖論),圖,由于它在表述各種關(guān)系的強(qiáng)大能力以及優(yōu)雅的理論,高效的算法,越來(lái)越受到Learning領(lǐng)域的歡迎。
經(jīng)典圖論,在Learning中的一個(gè)最重要應(yīng)用就是graphical models了,它被成功運(yùn)用于分析統(tǒng)計(jì)網(wǎng)絡(luò)的結(jié)構(gòu)和規(guī)劃統(tǒng)計(jì)推斷的流程。Graphical model所取得的成功,圖論可謂功不可沒(méi)。在Vision里面,maxflow (graphcut)算法在圖像分割,Stereo還有各種能量?jī)?yōu)化中也廣受應(yīng)用。另外一個(gè)重要的圖論分支就是Algebraic graph theory (代數(shù)圖論),主要運(yùn)用于圖的譜分析,著名的應(yīng)用包括Normalized Cut和Spectral Clustering。近年來(lái)在semi-supervised learning中受到特別關(guān)注。

數(shù)據(jù)分析咨詢請(qǐng)掃描二維碼

若不方便掃碼,搜微信號(hào):CDAshujufenxi

數(shù)據(jù)分析師資訊
更多

OK
客服在線
立即咨詢
客服在線
立即咨詢
') } function initGt() { var handler = function (captchaObj) { captchaObj.appendTo('#captcha'); captchaObj.onReady(function () { $("#wait").hide(); }).onSuccess(function(){ $('.getcheckcode').removeClass('dis'); $('.getcheckcode').trigger('click'); }); window.captchaObj = captchaObj; }; $('#captcha').show(); $.ajax({ url: "/login/gtstart?t=" + (new Date()).getTime(), // 加隨機(jī)數(shù)防止緩存 type: "get", dataType: "json", success: function (data) { $('#text').hide(); $('#wait').show(); // 調(diào)用 initGeetest 進(jìn)行初始化 // 參數(shù)1:配置參數(shù) // 參數(shù)2:回調(diào),回調(diào)的第一個(gè)參數(shù)驗(yàn)證碼對(duì)象,之后可以使用它調(diào)用相應(yīng)的接口 initGeetest({ // 以下 4 個(gè)配置參數(shù)為必須,不能缺少 gt: data.gt, challenge: data.challenge, offline: !data.success, // 表示用戶后臺(tái)檢測(cè)極驗(yàn)服務(wù)器是否宕機(jī) new_captcha: data.new_captcha, // 用于宕機(jī)時(shí)表示是新驗(yàn)證碼的宕機(jī) product: "float", // 產(chǎn)品形式,包括:float,popup width: "280px", https: true // 更多配置參數(shù)說(shuō)明請(qǐng)參見(jiàn):http://docs.geetest.com/install/client/web-front/ }, handler); } }); } function codeCutdown() { if(_wait == 0){ //倒計(jì)時(shí)完成 $(".getcheckcode").removeClass('dis').html("重新獲取"); }else{ $(".getcheckcode").addClass('dis').html("重新獲取("+_wait+"s)"); _wait--; setTimeout(function () { codeCutdown(); },1000); } } function inputValidate(ele,telInput) { var oInput = ele; var inputVal = oInput.val(); var oType = ele.attr('data-type'); var oEtag = $('#etag').val(); var oErr = oInput.closest('.form_box').next('.err_txt'); var empTxt = '請(qǐng)輸入'+oInput.attr('placeholder')+'!'; var errTxt = '請(qǐng)輸入正確的'+oInput.attr('placeholder')+'!'; var pattern; if(inputVal==""){ if(!telInput){ errFun(oErr,empTxt); } return false; }else { switch (oType){ case 'login_mobile': pattern = /^1[3456789]\d{9}$/; if(inputVal.length==11) { $.ajax({ url: '/login/checkmobile', type: "post", dataType: "json", data: { mobile: inputVal, etag: oEtag, page_ur: window.location.href, page_referer: document.referrer }, success: function (data) { } }); } break; case 'login_yzm': pattern = /^\d{6}$/; break; } if(oType=='login_mobile'){ } if(!!validateFun(pattern,inputVal)){ errFun(oErr,'') if(telInput){ $('.getcheckcode').removeClass('dis'); } }else { if(!telInput) { errFun(oErr, errTxt); }else { $('.getcheckcode').addClass('dis'); } return false; } } return true; } function errFun(obj,msg) { obj.html(msg); if(msg==''){ $('.login_submit').removeClass('dis'); }else { $('.login_submit').addClass('dis'); } } function validateFun(pat,val) { return pat.test(val); }