99999久久久久久亚洲,欧美人与禽猛交狂配,高清日韩av在线影院,一个人在线高清免费观看,啦啦啦在线视频免费观看www

熱線電話:13121318867

登錄
首頁精彩閱讀13個最常用的Python深度學(xué)習(xí)庫介紹
13個最常用的Python深度學(xué)習(xí)庫介紹
2018-02-17
收藏

13個最常用的Python深度學(xué)習(xí)庫介紹

如果你對深度學(xué)習(xí)和卷積神經(jīng)網(wǎng)絡(luò)感興趣,但是并不知道從哪里開始,也不知道使用哪種庫,那么這里就為你提供了許多幫助。

在這篇文章里,我詳細(xì)解讀了9個我最喜歡的Python深度學(xué)習(xí)庫。

這個名單并不詳盡,它只是我在計算機視覺的職業(yè)生涯中使用并在某個時間段發(fā)現(xiàn)特別有用的一個庫的列表。

這其中的一些庫我比別人用的多很多,尤其是Keras、mxnet和sklearn-theano。

其他的一些我是間接的使用,比如Theano和TensorFlow(庫包括Keras、deepy和Blocks等)。

另外的我只是在一些特別的任務(wù)中用過(比如nolearn和他們的Deep Belief Network implementation)。

這篇文章的目的是向你介紹這些庫。我建議你認(rèn)真了解這里的每一個庫,然后在某個具體工作情境中你就可以確定一個最適用的庫。

我想再次重申,這份名單并不詳盡。此外,由于我是計算機視覺研究人員并長期活躍在這個領(lǐng)域,對卷積神經(jīng)網(wǎng)絡(luò)(細(xì)胞神經(jīng)網(wǎng)絡(luò))方面的庫會關(guān)注更多。

我把這個深度學(xué)習(xí)庫的列表分為三個部分。

第一部分是比較流行的庫,你可能已經(jīng)很熟悉了。對于這些庫,我提供了一個通俗的、高層次的概述。然后,針對每個庫我詳細(xì)解說了我的喜歡之處和不喜歡之處,并列舉了一些適當(dāng)?shù)膽?yīng)用案例。

第二部分進(jìn)入到我個人最喜歡的深度學(xué)習(xí)庫,也是我日常工作中使用最多的,包括:Keras、mxnet和sklearn-theano等。

最后,我對第一部分中不經(jīng)常使用的庫做了一個“福利”板塊,你或許還會從中發(fā)現(xiàn)有用的或者是在第二板塊中我還沒有嘗試過但看起來很有趣的庫。

接下來就讓我們繼續(xù)探索。

針對初學(xué)者:

Caffe

提到“深度學(xué)習(xí)庫”就不可能不說到Caffe。事實上,自從你打開這個頁面學(xué)習(xí)深度學(xué)習(xí)庫,我就敢打保票你肯定聽說Caffe。
那么,究竟Caffe是什么呢?

Caffe是由Berkeley Vision and Learning Center(BVLC)建立的深度學(xué)習(xí)框架。它是模塊化的,速度極快。而且被應(yīng)用于學(xué)術(shù)界和產(chǎn)業(yè)界的start-of-the-art應(yīng)用程序中。

事實上,如果你去翻閱最新的深度學(xué)習(xí)出版物(也提供源代碼),你就很可能會在它們相關(guān)的GitHub庫中找到Caffe模型。

雖然Caffe本身并不是一個Python庫,但它提供綁定到Python上的編程語言。我們通常在新領(lǐng)域開拓網(wǎng)絡(luò)的時候使用這些綁定。
我把Caffe放在這個列表的原因是它幾乎被應(yīng)用在各個方面。你可以在一個空白文檔里定義你的模型架構(gòu)和解決方案,建立一個JSON文件類型的.prototxt配置文件。Caffe二進(jìn)制文件提取這些.prototxt文件并培訓(xùn)你的網(wǎng)絡(luò)。Caffe完成培訓(xùn)之后,你可以把你的網(wǎng)絡(luò)和經(jīng)過分類的新圖像通過Caffe二進(jìn)制文件,更好的就直接通過Python或MATLAB的API。

雖然我很喜歡Caffe的性能(它每天可以在K40 GPU上處理60萬張圖片),但相比之下我更喜歡Keras和mxnet。

主要的原因是,在.prototxt文件內(nèi)部構(gòu)建架構(gòu)可能會變得相當(dāng)乏味和無聊。更重要的是, Caffe不能用編程方式調(diào)整超參數(shù)!由于這兩個原因,在基于Python的API中我傾向于對允許我實現(xiàn)終端到終端聯(lián)播網(wǎng)的庫傾斜(包括交叉驗證和調(diào)整超參數(shù))。

Theano

在最開始我想說Theano是美麗的。如果沒有Theano,我們根本不會達(dá)到現(xiàn)有的深度學(xué)習(xí)庫的數(shù)量(特別是在Python)。同樣的,如果沒有numpy,我們就不會有SciPy、scikit-learn和 scikit-image,,同樣可以說是關(guān)于Theano和深度學(xué)習(xí)更高級別的抽象。

非常核心的是,Theano是一個Python庫,用來定義、優(yōu)化和評估涉及多維數(shù)組的數(shù)學(xué)表達(dá)式。 Theano通過與numpy的緊密集成,透明地使用GPU來完成這些工作。

雖然可以利用Theano建立深度學(xué)習(xí)網(wǎng)絡(luò),但我傾向于認(rèn)為Theano是神經(jīng)網(wǎng)絡(luò)的基石,同樣的numpy是作為科學(xué)計算的基石。事實上,大多數(shù)我在文章中提到的庫都是圍繞著Theano,使自己變得更加便利。

不要誤會我的意思,我愛Theano,我只是不喜歡用Theano編寫代碼。

在Theano建設(shè)卷積神經(jīng)網(wǎng)絡(luò)就像只用本機Python中的numpy寫一個定制的支持向量機SVM),當(dāng)然這個對比并不是很完美。
你可以做到嗎?

當(dāng)然可以。

它值得花費您的時間和精力嗎?

嗯,也許吧。這取決于你是否想擺脫低級別或你的應(yīng)用是否需要。

就個人而言,我寧愿使用像Keras這樣的庫,它把Theano包裝成更有人性化的API,同樣的方式,scikit-learn使機器學(xué)習(xí)算法工作變得更加容易。

TensorFlow

與Theano類似,TensorFlow是使用數(shù)據(jù)流圖進(jìn)行數(shù)值計算的開源庫(這是所有神經(jīng)網(wǎng)絡(luò)固有的特征)。最初由谷歌的機器智能研究機構(gòu)內(nèi)的Google Brain Team研究人員開發(fā),此后庫一直開源,并提供給公眾。

相比于Theano ,TensorFlow的主要優(yōu)點是分布式計算,特別是在多GPU的環(huán)境中(雖然這是Theano正在攻克的項目)。

除了用TensorFlow而不是Theano替換Keras后端,對于TensorFlow庫我并沒有太多的經(jīng)驗。然而在接下來的幾個月里,我希望這有所改變。

Lasagne

Lasagne是Theano中用于構(gòu)建和訓(xùn)練網(wǎng)絡(luò)的輕量級庫。這里的關(guān)鍵詞是輕量級的,也就意味著它不是一個像Keras一樣圍繞著Theano的重包裝的庫。雖然這會導(dǎo)致你的代碼更加繁瑣,但它會把你從各種限制中解脫出來,同時還可以讓您根據(jù)Theano進(jìn)行模塊化的構(gòu)建。

簡而言之:Lasagne的功能是Theano的低級編程和Keras的高級抽象之間的一個折中。

我最喜歡的:

Keras

如果我必須選出一個最喜歡的深度學(xué)習(xí)Python庫,我將很難在Keras和mxnet中做出抉擇——但最后,我想我會選Keras。
說真的,Keras的好處我說都說不完。

Keras是一個最低限度的、模塊化的神經(jīng)網(wǎng)絡(luò)庫,可以使用Theano或TensorFlow作為后端。Keras最主要的用戶體驗是,從構(gòu)思到產(chǎn)生結(jié)果將會是一個非常迅速的過程。

Keras中架構(gòu)網(wǎng)絡(luò)設(shè)計是十分輕松自然的。它包括一些state-of-the-art中針對優(yōu)化(Adam,RMSProp)、標(biāo)準(zhǔn)化(BatchNorm)和激活層(PReLU,ELU,LeakyReLU)最新的算法。

Keras也非常注重卷積神經(jīng)網(wǎng)絡(luò),這也是我十分需要的。無論它是有意還是無意的,我覺得從計算機視覺的角度來看這是非常有價值的。

更重要的是,你既可以輕松地構(gòu)建基于序列的網(wǎng)絡(luò)(其中輸入線性流經(jīng)網(wǎng)絡(luò))又可以創(chuàng)建基于圖形的網(wǎng)絡(luò)(輸入可以“跳過”某些層直接和后面對接)。這使得創(chuàng)建像GoogLeNet和SqueezeNet這樣復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)變得容易得多。

我認(rèn)為Keras唯一的問題是它不支持多GPU環(huán)境中并行地訓(xùn)練網(wǎng)絡(luò)。這可能會也可能不會成為你的大忌。

如果我想盡快地訓(xùn)練網(wǎng)絡(luò),那么我可能會使用mxnet。但是如果我需要調(diào)整超參數(shù),我就會用Keras設(shè)置四個獨立的實驗(分別在我的Titan X GPUs上運行)并評估結(jié)果。

mxnet

我第二喜歡的深度學(xué)習(xí)Python庫無疑就是mxnet(重點也是訓(xùn)練圖像分類網(wǎng)絡(luò))。雖然在mxnet中站立一個網(wǎng)絡(luò)可能需要較多的代碼,但它會提供給你驚人數(shù)量的語言綁定(C ++、Python、R、JavaScript等)。

Mxnet庫真正出色的是分布式計算,它支持在多個CPU / GPU機訓(xùn)練你的網(wǎng)絡(luò),甚至可以在AWS、Azure以及YARN集群。
它確實需要更多的代碼來設(shè)立一個實驗并在mxnet上運行(與Keras相比),但如果你需要跨多個GPU或系統(tǒng)分配訓(xùn)練,我推薦mxnet。

sklearn-theano

有時候你并不需要終端到終端的培養(yǎng)一個卷積神經(jīng)網(wǎng)絡(luò)。相反,你需要把CNN看作一個特征提取器。當(dāng)你沒有足夠的數(shù)據(jù)來從頭培養(yǎng)一個完整的CNN時它就會變得特別有用。僅僅需要把你的輸入圖像放入流行的預(yù)先訓(xùn)練架構(gòu),如OverFeat、AlexNet、VGGNet或GoogLeNet,然后從FC層提取特征(或任何您要使用的層)。

總之,這就是sklearn-theano的功能所在。你不能用它從頭到尾的訓(xùn)練一個模型,但它的神奇之處就是可以把網(wǎng)絡(luò)作為特征提取器。當(dāng)需要評估一個特定的問題是否適合使用深度學(xué)習(xí)來解決時,我傾向于使用這個庫作為我的第一手判斷。

nolearn

我在PyImageSearch博客上用過幾次nolearn,主要是在我的MacBook Pro上進(jìn)行一些初步的GPU實驗和在Amazon EC2 GPU實例中進(jìn)行深度學(xué)習(xí)。

Keras把 Theano和TensorFlow包裝成了更具人性化的API,而nolearn也為Lasagne做了相同的事。此外,nolearn中所有的代碼都是與scikit-learn兼容的,這對我來說絕對是個超級的福利。

我個人不使用nolearn做卷積神經(jīng)網(wǎng)絡(luò)(CNNs),但你當(dāng)然也可以用(我更喜歡用Keras和mxnet來做CNNs)。我主要用nolearn來制作Deep Belief Networks (DBNs)。

DIGITS

DIGITS并不是一個真正的深度學(xué)習(xí)庫(雖然它是用Python寫的)。DIGITS(深度學(xué)習(xí)GPU培訓(xùn)系統(tǒng))實際上是用于培訓(xùn)Caffe深度學(xué)習(xí)模式的web應(yīng)用程序(雖然我認(rèn)為你可以破解源代碼然后使用Caffe以外其他的后端進(jìn)行工作,但這聽起來就像一場噩夢)。

如果你曾經(jīng)用過Caffe,那么你就會知道通過它的終端來定義.prototxt文件、生成圖像數(shù)據(jù)、運行網(wǎng)絡(luò)并監(jiān)管你的網(wǎng)絡(luò)訓(xùn)練是相當(dāng)繁瑣的。 DIGITS旨在通過讓你在瀏覽器中執(zhí)行這些任務(wù)來解決這個問題。

此外,DIGITS的用戶界面非常出色,它可以為你提供有價值的統(tǒng)計數(shù)據(jù)和圖表作為你的模型訓(xùn)練。另外,你可以通過各種輸入輕松地可視化網(wǎng)絡(luò)中的激活層。最后,如果您想測試一個特定的圖像,您可以把圖片上傳到你的DIGITS服務(wù)器或進(jìn)入圖片的URL,然后你的Caffe模型將會自動分類圖像并把結(jié)果顯示在瀏覽器中。干凈利落!

Blocks

說實話,雖然我一直想嘗試,但截至目前我的確從來沒用過Blocks(這也是我把它包括在這個列表里的原因)。就像許多個在這個列表中的其他庫一樣,Blocks建立在Theano之上,呈現(xiàn)出一個用戶友好型的API。

deepy

如果讓你猜deepy是圍繞哪個庫建立的,你會猜什么?

沒錯,就是Theano。

我記得在前一段時間用過deepy(做了初始提交),但在接下里的大概6-8個月我都沒有碰它了。我打算在接下來的博客文章里再嘗試一下。

pylearn2

雖然我從沒有主動地使用pylearn2,但由于歷史原因,我覺得很有必要把它包括在這個列表里。 Pylearn2不僅僅是一般的機器學(xué)習(xí)庫(地位類似于scikit-learn),也包含了深度學(xué)習(xí)算法的實現(xiàn)。

對于pylearn2我最大的擔(dān)憂就是(在撰寫本文時),它沒有一個活躍的開發(fā)者。正因為如此,相比于像Keras和mxnet這樣的有積極維護(hù)的庫,推薦pylearn2我還有些猶豫。

Deeplearning4j

這本應(yīng)是一個基于Python的列表,但我想我會把Deeplearning4j包括在這里,主要是出于對他們所做事跡的無比崇敬——Deeplearning4j為JVM建立了一個開源的、分布式的深度學(xué)習(xí)庫。

如果您在企業(yè)工作,你可能會有一個塞滿了用過的Hadoop和MapReduce服務(wù)器的儲存器。也許這些你還在用,也許早就不用了。

你怎樣才能把這些相同的服務(wù)器應(yīng)用到深度學(xué)習(xí)里?

事實證明是可以的——你只需要Deeplearning4j。

總計

以上就是本文關(guān)于13個最常用的Python深度學(xué)習(xí)庫介紹的全部內(nèi)容

數(shù)據(jù)分析咨詢請掃描二維碼

若不方便掃碼,搜微信號:CDAshujufenxi

數(shù)據(jù)分析師資訊
更多

OK
客服在線
立即咨詢
客服在線
立即咨詢
') } function initGt() { var handler = function (captchaObj) { captchaObj.appendTo('#captcha'); captchaObj.onReady(function () { $("#wait").hide(); }).onSuccess(function(){ $('.getcheckcode').removeClass('dis'); $('.getcheckcode').trigger('click'); }); window.captchaObj = captchaObj; }; $('#captcha').show(); $.ajax({ url: "/login/gtstart?t=" + (new Date()).getTime(), // 加隨機數(shù)防止緩存 type: "get", dataType: "json", success: function (data) { $('#text').hide(); $('#wait').show(); // 調(diào)用 initGeetest 進(jìn)行初始化 // 參數(shù)1:配置參數(shù) // 參數(shù)2:回調(diào),回調(diào)的第一個參數(shù)驗證碼對象,之后可以使用它調(diào)用相應(yīng)的接口 initGeetest({ // 以下 4 個配置參數(shù)為必須,不能缺少 gt: data.gt, challenge: data.challenge, offline: !data.success, // 表示用戶后臺檢測極驗服務(wù)器是否宕機 new_captcha: data.new_captcha, // 用于宕機時表示是新驗證碼的宕機 product: "float", // 產(chǎn)品形式,包括:float,popup width: "280px", https: true // 更多配置參數(shù)說明請參見:http://docs.geetest.com/install/client/web-front/ }, handler); } }); } function codeCutdown() { if(_wait == 0){ //倒計時完成 $(".getcheckcode").removeClass('dis').html("重新獲取"); }else{ $(".getcheckcode").addClass('dis').html("重新獲取("+_wait+"s)"); _wait--; setTimeout(function () { codeCutdown(); },1000); } } function inputValidate(ele,telInput) { var oInput = ele; var inputVal = oInput.val(); var oType = ele.attr('data-type'); var oEtag = $('#etag').val(); var oErr = oInput.closest('.form_box').next('.err_txt'); var empTxt = '請輸入'+oInput.attr('placeholder')+'!'; var errTxt = '請輸入正確的'+oInput.attr('placeholder')+'!'; var pattern; if(inputVal==""){ if(!telInput){ errFun(oErr,empTxt); } return false; }else { switch (oType){ case 'login_mobile': pattern = /^1[3456789]\d{9}$/; if(inputVal.length==11) { $.ajax({ url: '/login/checkmobile', type: "post", dataType: "json", data: { mobile: inputVal, etag: oEtag, page_ur: window.location.href, page_referer: document.referrer }, success: function (data) { } }); } break; case 'login_yzm': pattern = /^\d{6}$/; break; } if(oType=='login_mobile'){ } if(!!validateFun(pattern,inputVal)){ errFun(oErr,'') if(telInput){ $('.getcheckcode').removeClass('dis'); } }else { if(!telInput) { errFun(oErr, errTxt); }else { $('.getcheckcode').addClass('dis'); } return false; } } return true; } function errFun(obj,msg) { obj.html(msg); if(msg==''){ $('.login_submit').removeClass('dis'); }else { $('.login_submit').addClass('dis'); } } function validateFun(pat,val) { return pat.test(val); }