99999久久久久久亚洲,欧美人与禽猛交狂配,高清日韩av在线影院,一个人在线高清免费观看,啦啦啦在线视频免费观看www

熱線電話:13121318867

登錄
首頁精彩閱讀機(jī)器學(xué)習(xí)入門篇 | 面向初學(xué)者的十大機(jī)器學(xué)習(xí)算法
機(jī)器學(xué)習(xí)入門篇 | 面向初學(xué)者的十大機(jī)器學(xué)習(xí)算法
2020-03-03
收藏
作者 | Rekhit Pachanekar
來源 | CDA數(shù)據(jù)分析師

英國數(shù)學(xué)家,計(jì)算機(jī)科學(xué)家,邏輯學(xué)家和密碼分析員艾倫·圖靈(Alan Turing)推測未來機(jī)器會具有智能。

“這就像一個學(xué)生,他從老師那里學(xué)到了很多東西,但通過自己的工作又增加了很多的東西。當(dāng)這種情況發(fā)生時,我覺得人們有義務(wù)將機(jī)器視為具有智能?!?/span>

為了舉例說明機(jī)器學(xué)習(xí)的影響,Man group的AHL Dimension計(jì)劃是一個51億美元的對沖基金,部分由AI管理。 該基金開始運(yùn)作后,到2015年,盡管其管理的資產(chǎn)遠(yuǎn)遠(yuǎn)少于該基金,但其機(jī)器學(xué)習(xí)算法卻貢獻(xiàn)了該基金一半以上的利潤。

在閱讀了這個博客之后,您將能夠理解一些流行的和令人難以置信的機(jī)器學(xué)習(xí)算法背后的基本邏輯,這些算法已經(jīng)被交易社區(qū)所使用,并且作為您踏上創(chuàng)建最佳機(jī)器學(xué)習(xí)算法的基石。他們是:

線性回歸

線性回歸的方法最初是在統(tǒng)計(jì)學(xué)中發(fā)展的,用于研究輸入和輸出數(shù)值變量之間的關(guān)系,后來被機(jī)器學(xué)習(xí)社區(qū)用來基于線性回歸方程進(jìn)行預(yù)測。

線性回歸的數(shù)學(xué)表示法是一個線性方程,它結(jié)合了一組特定的輸入數(shù)據(jù)(x),以預(yù)測該組輸入值的輸出值(y)。線性方程式為每組輸入值分配一個系數(shù),這些系數(shù)用希臘字母Beta(β)表示。

下面提到的方程式表示具有兩組輸入值x1和x2的線性回歸模型。y表示模型的輸出,β0,β1和β_2是線性方程的系數(shù)。

y = β0+ β1x1+ β2x2

當(dāng)只有一個輸入變量時,線性方程式表示一條直線。為了簡單起見,考慮β2是等于零,這將意味著,變量x2不會影響線性回歸模型的輸出。在這種情況下,線性回歸將代表一條直線,其等式如下所示。

y = β0+ β1x1

線性回歸方程模型的圖形如下所示

線性回歸可以用來發(fā)現(xiàn)股票在一段時間內(nèi)的總體價格趨勢。這有助于我們了解價格變動是正向是負(fù)向的。

邏輯回歸

邏輯回歸中,我們的目標(biāo)是產(chǎn)生一個離散值,即1或0。這有助于我們找到一種確定的方案答案。Logistic回歸可以用數(shù)學(xué)表示為:

邏輯回歸模型類似于線性回歸來計(jì)算輸入變量的加權(quán)和,但是它通過特殊的非線性函數(shù),邏輯函數(shù)或S形函數(shù)運(yùn)行結(jié)果,以產(chǎn)生輸出y。

S形/邏輯函數(shù)由以下方程式給出。

y = 1 / (1+ e-x)

簡單地說,logistic回歸可以用來預(yù)測市場的走向。

KNN分類

K最近鄰(KNN)分類的目的是將數(shù)據(jù)點(diǎn)分為不同的類別,以便我們可以基于相似性度量(例如距離函數(shù))對它們進(jìn)行分類。

從某種意義上說,KNN不需要一個明確的訓(xùn)練學(xué)習(xí)階段,而是由相鄰數(shù)據(jù)點(diǎn)的多數(shù)票決定來進(jìn)行分類。從而將目標(biāo)數(shù)據(jù)點(diǎn)分配給在其k個最近的相鄰樣本中某類別數(shù)量最多的類。

讓我們考慮將下面圖片中的綠色圓圈分為1類和2類的任務(wù)??紤]基于1個最近鄰居的KNN的情況。在這種情況下,KNN將綠色圓圈分類為1類。現(xiàn)在,讓我們將最近鄰居的數(shù)量增加到3,即3最近鄰居。正如您在圖中看到的那樣,圓圈內(nèi)有“兩個” 2類對象和“一個” 1類對象。KNN將綠色圓圈歸為2類對象,因?yàn)樗纬闪舜蠖鄶?shù)對象。

支持向量機(jī)SVM

支持向量機(jī)(SVM)最初是用于數(shù)據(jù)分析。首先一組訓(xùn)練實(shí)例被輸入到SVM算法中,它們分別屬于一類別或另一個類別。然后,該算法可以構(gòu)建一個模型,并開始將新的測試數(shù)據(jù)分配給它在訓(xùn)練階段學(xué)習(xí)到的類別之一。

支持向量機(jī)算法中,創(chuàng)建了一個超平面,該超平面用作類別之間的分界。當(dāng)支持向量機(jī)算法處理一個新的數(shù)據(jù)點(diǎn)時,根據(jù)它出現(xiàn)的某一側(cè),它將被分類為一種類別。

當(dāng)涉及到交易時,可以建立支持向量機(jī)算法,將股票數(shù)據(jù)分類為有利的買入、賣出或中性類,然后根據(jù)規(guī)則對測試數(shù)據(jù)進(jìn)行分類。

決策樹

決策樹是一種類似于樹的支持決策的工具,可以用來表示因果關(guān)系。由于一個原因可能會有多種影響,因此我們將其列出來,非常像帶有分支的樹。

我們可以通過組織輸入數(shù)據(jù)和預(yù)測變量,并根據(jù)我們指定的一些標(biāo)準(zhǔn)來構(gòu)建決策樹

建立決策樹的主要步驟是:

  1. 檢索金融工具的市場數(shù)據(jù)。
  2. 介紹預(yù)測變量(即技術(shù)指標(biāo),情緒指標(biāo),廣度指標(biāo)等)
  3. 設(shè)置目標(biāo)變量或所需的輸出。
  4. 在訓(xùn)練和測試數(shù)據(jù)之間拆分?jǐn)?shù)據(jù)。
  5. 生成訓(xùn)練模型的決策樹。
  6. 測試和分析模型。
  • 決策樹的缺點(diǎn)是由于其固有的設(shè)計(jì)結(jié)構(gòu)而易于過度擬合。

隨機(jī)森林

一個隨機(jī)森林算法旨在解決一些決策樹的局限性。

隨機(jī)森林決策樹組成,決策樹是代表決策過程或統(tǒng)計(jì)概率的決策圖。這些多個樹映射到單個樹,稱為分類或回歸(CART)模型。

為了基于對象的屬性對目標(biāo)對象進(jìn)行分類,每棵樹都給出了一個分類,該分類被稱為對該類“投票”。然后,森林選擇投票數(shù)最多的類別。對于回歸樹來說,它考慮了不同樹的輸出的平均值來進(jìn)行回歸。

隨機(jī)森林算法的工作方式如下:

  1. 假設(shè)案例數(shù)為N,以N個案例的樣本作為訓(xùn)練集。
  2. 假設(shè)M是輸入變量的個數(shù),選擇一個m,使得m<M。m和M之間的最佳分割作為分割節(jié)點(diǎn)。隨著樹木的生長,m的值保持不變。
  3. 每棵樹都長得盡可能大。
  4. 通過匯總n棵樹的預(yù)測(即多數(shù)票用于分類,平均值用于回歸),預(yù)測新的數(shù)據(jù)。

人工神經(jīng)網(wǎng)絡(luò)

在我們探索世界的過程中,人工神經(jīng)網(wǎng)絡(luò)是我們的最高成就之一。如圖所示,我們已經(jīng)創(chuàng)建了多個相互連接的節(jié)點(diǎn),每個圓形節(jié)點(diǎn)代表一個人工神經(jīng)元,箭頭代表從一個神經(jīng)元的輸出到另一個神經(jīng)元的輸入的連接。它們模仿了我們大腦中的神經(jīng)元。簡單來說,每個神經(jīng)元都通過另一個神經(jīng)元來獲取信息,對其進(jìn)行處理,然后將其作為輸出傳遞給另一個神經(jīng)元。

如果我們使用神經(jīng)網(wǎng)絡(luò)來發(fā)現(xiàn)各種資產(chǎn)類別之間的相互依賴關(guān)系,而不是嘗試預(yù)測買入或賣出選擇,則神經(jīng)網(wǎng)絡(luò)會更有用。

K-means聚類

在這種機(jī)器學(xué)習(xí)算法中,目標(biāo)是根據(jù)數(shù)據(jù)點(diǎn)的相似性對其進(jìn)行標(biāo)記(聚類)。因此,我們沒有在算法之前定義聚類,而是算法在前進(jìn)時找到了這些聚類。

一個簡單的例子是,根據(jù)足球運(yùn)動員的數(shù)據(jù),我們將使用K-means聚類,并根據(jù)他們的相似性對其進(jìn)行標(biāo)記。因此,即使沒有為算法提供預(yù)定義的標(biāo)簽,也可以基于前鋒對任意球或成功鏟球得分的偏好來對足球運(yùn)動員進(jìn)行聚類。

K均值聚類對那些認(rèn)為不同資產(chǎn)之間可能存在表面上看不到的相似性的交易者是非常有用的。

樸素貝葉斯定理

現(xiàn)在,如果您還記得基本概率,您就會知道,貝葉斯定理的表述方式是,假定我們對與前一事件相關(guān)的任何事件都具有先驗(yàn)知識。 它是關(guān)于隨機(jī)事件A和B的條件概率(或邊緣概率)的一則定理。其中P(A|B)是在B發(fā)生的情況下A發(fā)生的可能性。 例如,要檢查您到辦公室遲到的可能性,您可能想知道您在途中是否會遇到任何形式的交通擁堵。

但是,樸素貝葉斯分類器算法假設(shè)兩個事件是彼此獨(dú)立的,這在很大程度上簡化了計(jì)算。最初,樸素貝葉斯定理只是想被用于進(jìn)行學(xué)術(shù)研究,但現(xiàn)在看來,它在現(xiàn)實(shí)世界中也表現(xiàn)出色。

樸素貝葉斯算法可以在無完整的數(shù)據(jù)的情況下,用于查找不同參數(shù)之間的簡單關(guān)系。

遞歸神經(jīng)網(wǎng)絡(luò)RNN

你知道Siri和Google助手在他們的編程中使用RNN嗎?RNN本質(zhì)上是一種神經(jīng)網(wǎng)絡(luò),它在每個節(jié)點(diǎn)上都有一個存儲器,這使得處理順序數(shù)據(jù)變得容易,即一個數(shù)據(jù)單元依賴于前一個數(shù)據(jù)單元。

一種解釋RNN優(yōu)于常規(guī)神經(jīng)網(wǎng)絡(luò)的優(yōu)勢的方法是,我們應(yīng)該逐個字符地處理一個單詞。如果單詞是“ trading”,則正常的神經(jīng)網(wǎng)絡(luò)節(jié)點(diǎn)會在移動到“ d”時忘記字符“ t”,而遞歸神經(jīng)網(wǎng)絡(luò)會記住該字符,因?yàn)樗哂凶约旱挠洃洝?/span>

結(jié)論

根據(jù)Preqin的一項(xiàng)研究,已知1,360種量化基金在其交易過程中使用計(jì)算機(jī)模型,占所有基金的9%。如果Quantopian這樣的公司在測試階段賺錢,并且實(shí)際上投資自己的錢并在實(shí)時交易階段拿錢,則會為個人的機(jī)器學(xué)習(xí)策略組織現(xiàn)金獎勵。因此,為了在競爭中領(lǐng)先一步,每個人,無論是數(shù)十億美元的對沖基金還是個人交易,都在試圖在其交易策略中理解和實(shí)施機(jī)器學(xué)習(xí)模型。

數(shù)據(jù)分析咨詢請掃描二維碼

若不方便掃碼,搜微信號:CDAshujufenxi

數(shù)據(jù)分析師資訊
更多

OK
客服在線
立即咨詢
客服在線
立即咨詢
') } function initGt() { var handler = function (captchaObj) { captchaObj.appendTo('#captcha'); captchaObj.onReady(function () { $("#wait").hide(); }).onSuccess(function(){ $('.getcheckcode').removeClass('dis'); $('.getcheckcode').trigger('click'); }); window.captchaObj = captchaObj; }; $('#captcha').show(); $.ajax({ url: "/login/gtstart?t=" + (new Date()).getTime(), // 加隨機(jī)數(shù)防止緩存 type: "get", dataType: "json", success: function (data) { $('#text').hide(); $('#wait').show(); // 調(diào)用 initGeetest 進(jìn)行初始化 // 參數(shù)1:配置參數(shù) // 參數(shù)2:回調(diào),回調(diào)的第一個參數(shù)驗(yàn)證碼對象,之后可以使用它調(diào)用相應(yīng)的接口 initGeetest({ // 以下 4 個配置參數(shù)為必須,不能缺少 gt: data.gt, challenge: data.challenge, offline: !data.success, // 表示用戶后臺檢測極驗(yàn)服務(wù)器是否宕機(jī) new_captcha: data.new_captcha, // 用于宕機(jī)時表示是新驗(yàn)證碼的宕機(jī) product: "float", // 產(chǎn)品形式,包括:float,popup width: "280px", https: true // 更多配置參數(shù)說明請參見:http://docs.geetest.com/install/client/web-front/ }, handler); } }); } function codeCutdown() { if(_wait == 0){ //倒計(jì)時完成 $(".getcheckcode").removeClass('dis').html("重新獲取"); }else{ $(".getcheckcode").addClass('dis').html("重新獲取("+_wait+"s)"); _wait--; setTimeout(function () { codeCutdown(); },1000); } } function inputValidate(ele,telInput) { var oInput = ele; var inputVal = oInput.val(); var oType = ele.attr('data-type'); var oEtag = $('#etag').val(); var oErr = oInput.closest('.form_box').next('.err_txt'); var empTxt = '請輸入'+oInput.attr('placeholder')+'!'; var errTxt = '請輸入正確的'+oInput.attr('placeholder')+'!'; var pattern; if(inputVal==""){ if(!telInput){ errFun(oErr,empTxt); } return false; }else { switch (oType){ case 'login_mobile': pattern = /^1[3456789]\d{9}$/; if(inputVal.length==11) { $.ajax({ url: '/login/checkmobile', type: "post", dataType: "json", data: { mobile: inputVal, etag: oEtag, page_ur: window.location.href, page_referer: document.referrer }, success: function (data) { } }); } break; case 'login_yzm': pattern = /^\d{6}$/; break; } if(oType=='login_mobile'){ } if(!!validateFun(pattern,inputVal)){ errFun(oErr,'') if(telInput){ $('.getcheckcode').removeClass('dis'); } }else { if(!telInput) { errFun(oErr, errTxt); }else { $('.getcheckcode').addClass('dis'); } return false; } } return true; } function errFun(obj,msg) { obj.html(msg); if(msg==''){ $('.login_submit').removeClass('dis'); }else { $('.login_submit').addClass('dis'); } } function validateFun(pat,val) { return pat.test(val); }