')
}
function initGt() {
var handler = function (captchaObj) {
captchaObj.appendTo('#captcha');
captchaObj.onReady(function () {
$("#wait").hide();
}).onSuccess(function(){
$('.getcheckcode').removeClass('dis');
$('.getcheckcode').trigger('click');
});
window.captchaObj = captchaObj;
};
$('#captcha').show();
$.ajax({
url: "/login/gtstart?t=" + (new Date()).getTime(), // 加隨機(jī)數(shù)防止緩存
type: "get",
dataType: "json",
success: function (data) {
$('#text').hide();
$('#wait').show();
// 調(diào)用 initGeetest 進(jìn)行初始化
// 參數(shù)1:配置參數(shù)
// 參數(shù)2:回調(diào),回調(diào)的第一個(gè)參數(shù)驗(yàn)證碼對象,之后可以使用它調(diào)用相應(yīng)的接口
initGeetest({
// 以下 4 個(gè)配置參數(shù)為必須,不能缺少
gt: data.gt,
challenge: data.challenge,
offline: !data.success, // 表示用戶后臺(tái)檢測極驗(yàn)服務(wù)器是否宕機(jī)
new_captcha: data.new_captcha, // 用于宕機(jī)時(shí)表示是新驗(yàn)證碼的宕機(jī)
product: "float", // 產(chǎn)品形式,包括:float,popup
width: "280px",
https: true
// 更多配置參數(shù)說明請參見:http://docs.geetest.com/install/client/web-front/
}, handler);
}
});
}
function codeCutdown() {
if(_wait == 0){ //倒計(jì)時(shí)完成
$(".getcheckcode").removeClass('dis').html("重新獲取");
}else{
$(".getcheckcode").addClass('dis').html("重新獲取("+_wait+"s)");
_wait--;
setTimeout(function () {
codeCutdown();
},1000);
}
}
function inputValidate(ele,telInput) {
var oInput = ele;
var inputVal = oInput.val();
var oType = ele.attr('data-type');
var oEtag = $('#etag').val();
var oErr = oInput.closest('.form_box').next('.err_txt');
var empTxt = '請輸入'+oInput.attr('placeholder')+'!';
var errTxt = '請輸入正確的'+oInput.attr('placeholder')+'!';
var pattern;
if(inputVal==""){
if(!telInput){
errFun(oErr,empTxt);
}
return false;
}else {
switch (oType){
case 'login_mobile':
pattern = /^1[3456789]\d{9}$/;
if(inputVal.length==11) {
$.ajax({
url: '/login/checkmobile',
type: "post",
dataType: "json",
data: {
mobile: inputVal,
etag: oEtag,
page_ur: window.location.href,
page_referer: document.referrer
},
success: function (data) {
}
});
}
break;
case 'login_yzm':
pattern = /^\d{6}$/;
break;
}
if(oType=='login_mobile'){
}
if(!!validateFun(pattern,inputVal)){
errFun(oErr,'')
if(telInput){
$('.getcheckcode').removeClass('dis');
}
}else {
if(!telInput) {
errFun(oErr, errTxt);
}else {
$('.getcheckcode').addClass('dis');
}
return false;
}
}
return true;
}
function errFun(obj,msg) {
obj.html(msg);
if(msg==''){
$('.login_submit').removeClass('dis');
}else {
$('.login_submit').addClass('dis');
}
}
function validateFun(pat,val) {
return pat.test(val);
}
首頁 > 行業(yè)圖譜 >

- 簡單易學(xué)的機(jī)器學(xué)習(xí)算法—支持向量機(jī)
2017-03-20
-
簡單易學(xué)的機(jī)器學(xué)習(xí)算法—支持向量機(jī)
支持向量機(jī)(Support Vector Machines, SVM)被公認(rèn)為比較優(yōu)秀的分類模型,有很多人對SVM的基本原理做了闡述,我在學(xué)習(xí)的過程中也借鑒了他們的研究成果,在我介紹基本 ...

- 機(jī)器學(xué)習(xí)-回歸模型-欠擬合和過擬合
2017-03-20
-
機(jī)器學(xué)習(xí)-回歸模型-欠擬合和過擬合
1. 什么是欠擬合和過擬合
先看三張圖片,這三張圖片是線性回歸模型 擬合的函數(shù)和訓(xùn)練集的關(guān)系
第一張圖片擬合的函數(shù)和訓(xùn)練集誤差較大,我們稱這種情況為 欠擬合
...

- 模式識(shí)別、機(jī)器學(xué)習(xí)、數(shù)據(jù)挖掘當(dāng)中的各種距離總結(jié)
2017-03-20
-
模式識(shí)別、機(jī)器學(xué)習(xí)、數(shù)據(jù)挖掘當(dāng)中的各種距離總結(jié)
在做分類時(shí)常常需要估算不同樣本之間的相似性度量(SimilarityMeasurement),這時(shí)通常采用的方法就是計(jì)算樣本間的“距離”(Distance)。采用什么樣的方法計(jì)算距 ...

- 從曲線擬合問題窺視機(jī)器學(xué)習(xí)中的相關(guān)概念
2017-03-20
-
從曲線擬合問題窺視機(jī)器學(xué)習(xí)中的相關(guān)概念
一直徘徊在機(jī)器學(xué)習(xí)的邊緣未敢輕易造次并畏懼其基本原理思想,從每一本厚厚的參考資料中都可以看出機(jī)器學(xué)習(xí)是一門跨越概率論、決策論、信息論以及最優(yōu)化的學(xué)科的綜合學(xué) ...

- Python機(jī)器學(xué)習(xí)之Logistic回歸
2017-03-18
-
Python機(jī)器學(xué)習(xí)之Logistic回歸
大數(shù)據(jù)時(shí)代,數(shù)據(jù)猶如一座巨大的金礦,等待我們?nèi)グl(fā)掘。而機(jī)器學(xué)習(xí)和數(shù)據(jù)挖掘的相關(guān)技術(shù),無疑就是你挖礦探寶的必備利器!工欲善其事,必先利其器。很多初涉該領(lǐng)域的人,最先困惑 ...

- 牛頓法解機(jī)器學(xué)習(xí)中的Logistic回歸
2017-03-18
-
牛頓法解機(jī)器學(xué)習(xí)中的Logistic回歸
這仍然是近期系列文章中的一篇。在這一個(gè)系列中,我打算把機(jī)器學(xué)習(xí)中的Logistic回歸從原理到應(yīng)用詳細(xì)串起來。最初我們介紹了在Python中利用Scikit-Learn來建立Logistic回歸分 ...

- 機(jī)器學(xué)習(xí)中的隱馬爾科夫模型(HMM)詳解
2017-03-18
-
機(jī)器學(xué)習(xí)中的隱馬爾科夫模型(HMM)詳解
在之前介紹貝葉斯網(wǎng)絡(luò)的博文中,我們已經(jīng)討論過概率圖模型(PGM)的概念了。Russell等在文獻(xiàn)【1】中指出:“在統(tǒng)計(jì)學(xué)中,圖模型這個(gè)術(shù)語指包含貝葉斯網(wǎng)絡(luò)在內(nèi)的比較寬泛 ...

- 機(jī)器學(xué)習(xí)優(yōu)化算法之爬山算法小結(jié)
2017-03-16
-
機(jī)器學(xué)習(xí)優(yōu)化算法之爬山算法小結(jié)
機(jī)器學(xué)習(xí)的項(xiàng)目,不可避免的需要補(bǔ)充一些優(yōu)化算法,對于優(yōu)化算法,爬山算法還是比較重要的.鑒于此,花了些時(shí)間仔細(xì)閱讀了些爬山算法的paper.基于這些,做一些總結(jié).
目錄 ...

- 機(jī)器學(xué)習(xí)中概率論知識(shí)復(fù)習(xí)
2017-03-16
-
機(jī)器學(xué)習(xí)中概率論知識(shí)復(fù)習(xí)
1 基本概念
概率論在機(jī)器學(xué)習(xí)中扮演著一個(gè)核心角色,因?yàn)闄C(jī)器學(xué)習(xí)算法的設(shè)計(jì)通常依賴于對數(shù)據(jù)的概率假設(shè)。
1.1 概率空間
說到概率,通常是指一個(gè)具有不確定性的event發(fā)生的 ...

- 機(jī)器學(xué)習(xí)實(shí)現(xiàn)與分析之五(高斯判別分析)
2017-03-15
-
機(jī)器學(xué)習(xí)實(shí)現(xiàn)與分析之五(高斯判別分析)
高斯判別分析(GDA)簡介
首先,高斯判別分析的作用也是用于分類。對于兩類樣本,其服從伯努利分布,而對每個(gè)類中的樣本,假定都服從高斯分布,則有:
這 ...

- 機(jī)器學(xué)習(xí)實(shí)現(xiàn)與分析之四(廣義線性模型)
2017-03-15
-
機(jī)器學(xué)習(xí)實(shí)現(xiàn)與分析之四(廣義線性模型)
指數(shù)分布族
首先需要提及下指數(shù)分布族,它是指一系列的分布,只要其概率密度函數(shù)可以寫成下面這樣的形式:
一般的很多分布(如高斯分布,泊松分布,二項(xiàng) ...

- 斯坦福機(jī)器學(xué)習(xí)實(shí)現(xiàn)與分析之二(線性回歸)
2017-03-15
-
斯坦福機(jī)器學(xué)習(xí)實(shí)現(xiàn)與分析之二(線性回歸)
回歸問題提出
首先需要明確回歸問題的根本目的在于預(yù)測。對于某個(gè)問題,一般我們不可能測量出每一種情況(工作量太大),故多是測量一組數(shù)據(jù),基于此數(shù)據(jù)去預(yù) ...

- 機(jī)器學(xué)習(xí)實(shí)戰(zhàn)之SVD
2017-03-14
-
機(jī)器學(xué)習(xí)實(shí)戰(zhàn)之SVD
1. 奇異值分解 SVD(singular value decomposition)
1.1 SVD評價(jià)
優(yōu)點(diǎn): 簡化數(shù)據(jù), 去除噪聲和冗余信息, 提高算法的結(jié)果
缺點(diǎn): 數(shù)據(jù)的轉(zhuǎn)換可能難以理解
1.2 SVD應(yīng)用 ...

- 機(jī)器學(xué)習(xí)實(shí)戰(zhàn)之PCA
2017-03-14
-
機(jī)器學(xué)習(xí)實(shí)戰(zhàn)之PCA
1. 向量及其基變換
1.1 向量內(nèi)積
(1)兩個(gè)維數(shù)相同的向量的內(nèi)積定義如下: 內(nèi)積運(yùn)算將兩個(gè)向量映射為一個(gè)實(shí)數(shù).
(2) 內(nèi)積的幾何意義
假設(shè)A\\B是兩個(gè)n維向量, n維向量可以 ...

- 機(jī)器學(xué)習(xí)實(shí)戰(zhàn)之Apriori
2017-03-14
-
機(jī)器學(xué)習(xí)實(shí)戰(zhàn)之Apriori
1. 關(guān)聯(lián)分析
1.1 定義
關(guān)聯(lián)分析是一種在大規(guī)模數(shù)據(jù)上尋找物品間隱含關(guān)系的一種任務(wù).這種關(guān)系有2種形式:頻繁項(xiàng)集和關(guān)聯(lián)規(guī)則.
&n ...

- 如何區(qū)分人工智能,機(jī)器學(xué)習(xí)和深度學(xué)習(xí)
2017-03-14
-
我們都熟悉“人工智能”這一概念。畢竟,這個(gè)詞常常在熱門電影中出現(xiàn),如《終結(jié)者》、《黑客帝國》、《機(jī)械姬》。 但最近你也可能常常聽到其他術(shù)語,如“機(jī)器學(xué)習(xí)”和“深度學(xué)習(xí)”,這些詞有時(shí)與人工智能交 ...

- 機(jī)器學(xué)習(xí)基礎(chǔ)—梯度下降法(Gradient Descent)
2017-03-12
-
機(jī)器學(xué)習(xí)基礎(chǔ)—梯度下降法(Gradient Descent)
梯度下降法。一開始只是對其做了下簡單的了解。隨著內(nèi)容的深入,發(fā)現(xiàn)梯度下降法在很多算法中都用的到,除了之前看到的用來處理線性模型,還有BP神經(jīng)網(wǎng)絡(luò)等。于是 ...

- 機(jī)器學(xué)習(xí)算法常用指標(biāo)總結(jié)
2017-03-11
-
機(jī)器學(xué)習(xí)算法常用指標(biāo)總結(jié)
考慮一個(gè)二分問題,即將實(shí)例分成正類(positive)或負(fù)類(negative)。對一個(gè)二分問題來說,會(huì)出現(xiàn)四種情況。如果一個(gè)實(shí)例是正類并且也被 預(yù)測成正類,即為真正類(True positive), ...

- 【機(jī)器學(xué)習(xí)經(jīng)典算法源碼分析系列】-- 線性回歸
2017-03-11
-
【機(jī)器學(xué)習(xí)經(jīng)典算法源碼分析系列】-- 線性回歸
一、單變量線性回歸:
1.數(shù)據(jù)集可視化
2.求解模型參數(shù)
對于線性回歸模型,有兩種方法可以求解模型參數(shù)。
1) 梯度下降法
將代價(jià)函數(shù)代入展開:
M ...

- 機(jī)器學(xué)習(xí)中特征選擇概述
2017-03-11
-
機(jī)器學(xué)習(xí)中特征選擇概述
1. 背景
1.1 問題
在機(jī)器學(xué)習(xí)的實(shí)際應(yīng)用中,特征數(shù)量可能較多,其中可能存在不相關(guān)的特征,特征之間也可能存在相關(guān)性,容易導(dǎo)致如下的后果:
(1) 特征個(gè)數(shù)越多,分析特征 ...