')
}
function initGt() {
var handler = function (captchaObj) {
captchaObj.appendTo('#captcha');
captchaObj.onReady(function () {
$("#wait").hide();
}).onSuccess(function(){
$('.getcheckcode').removeClass('dis');
$('.getcheckcode').trigger('click');
});
window.captchaObj = captchaObj;
};
$('#captcha').show();
$.ajax({
url: "/login/gtstart?t=" + (new Date()).getTime(), // 加隨機數(shù)防止緩存
type: "get",
dataType: "json",
success: function (data) {
$('#text').hide();
$('#wait').show();
// 調用 initGeetest 進行初始化
// 參數(shù)1:配置參數(shù)
// 參數(shù)2:回調,回調的第一個參數(shù)驗證碼對象,之后可以使用它調用相應的接口
initGeetest({
// 以下 4 個配置參數(shù)為必須,不能缺少
gt: data.gt,
challenge: data.challenge,
offline: !data.success, // 表示用戶后臺檢測極驗服務器是否宕機
new_captcha: data.new_captcha, // 用于宕機時表示是新驗證碼的宕機
product: "float", // 產品形式,包括:float,popup
width: "280px",
https: true
// 更多配置參數(shù)說明請參見:http://docs.geetest.com/install/client/web-front/
}, handler);
}
});
}
function codeCutdown() {
if(_wait == 0){ //倒計時完成
$(".getcheckcode").removeClass('dis').html("重新獲取");
}else{
$(".getcheckcode").addClass('dis').html("重新獲取("+_wait+"s)");
_wait--;
setTimeout(function () {
codeCutdown();
},1000);
}
}
function inputValidate(ele,telInput) {
var oInput = ele;
var inputVal = oInput.val();
var oType = ele.attr('data-type');
var oEtag = $('#etag').val();
var oErr = oInput.closest('.form_box').next('.err_txt');
var empTxt = '請輸入'+oInput.attr('placeholder')+'!';
var errTxt = '請輸入正確的'+oInput.attr('placeholder')+'!';
var pattern;
if(inputVal==""){
if(!telInput){
errFun(oErr,empTxt);
}
return false;
}else {
switch (oType){
case 'login_mobile':
pattern = /^1[3456789]\d{9}$/;
if(inputVal.length==11) {
$.ajax({
url: '/login/checkmobile',
type: "post",
dataType: "json",
data: {
mobile: inputVal,
etag: oEtag,
page_ur: window.location.href,
page_referer: document.referrer
},
success: function (data) {
}
});
}
break;
case 'login_yzm':
pattern = /^\d{6}$/;
break;
}
if(oType=='login_mobile'){
}
if(!!validateFun(pattern,inputVal)){
errFun(oErr,'')
if(telInput){
$('.getcheckcode').removeClass('dis');
}
}else {
if(!telInput) {
errFun(oErr, errTxt);
}else {
$('.getcheckcode').addClass('dis');
}
return false;
}
}
return true;
}
function errFun(obj,msg) {
obj.html(msg);
if(msg==''){
$('.login_submit').removeClass('dis');
}else {
$('.login_submit').addClass('dis');
}
}
function validateFun(pat,val) {
return pat.test(val);
}
首頁 > 行業(yè)圖譜 >

- 【R語言進行數(shù)據(jù)挖掘】回歸分析
2016-07-30
-
【R語言進行數(shù)據(jù)挖掘】回歸分析
1、線性回歸
線性回歸就是使用下面的預測函數(shù)預測未來觀測量:
其中,x1,x2,...,xk都是預測變量(影響預測的因素),y是需要預測的目標變量(被預測變量)。
線性 ...
- R語言-回歸分析筆記
2016-06-02
-
R語言-回歸分析筆記
使用若干自變量并建立公式,以預測目標變量
目標變量是連續(xù)型的,則稱其為回歸分析
(1)一元線性回歸分析
y=kx+b
sol.lm<-lm(y~x,data)
abline(sol.lm)
使模型誤差的平方和 ...

- SAS時間序列模型預測未來航班數(shù)量
2016-05-29
-
SAS時間序列模型預測未來航班數(shù)量
時間序列建模步驟:
1. 時間序列平穩(wěn)性檢驗:如果一個時間序列的概率分布與時間無關,則成為平穩(wěn)序列。
2. 時間序列平穩(wěn)化和零均值化:時間序列預測模型是建立在平穩(wěn)序 ...
- 數(shù)據(jù)挖掘系列篇之DM解決幾類問題
2016-05-25
-
數(shù)據(jù)挖掘系列篇之DM解決幾類問題
宋代禪宗大師青原行思提出參禪的三重境界:“參禪之初,看山是山,看水是水;禪有悟時,看山不是山,看水不是水;禪中徹悟,看山仍然山,看水仍然是水。”
數(shù)據(jù)挖掘也是這樣 ...

- 邏輯回歸算法的原理及實現(xiàn)(LR)
2016-05-19
-
邏輯回歸算法的原理及實現(xiàn)(LR)
邏輯回歸(Logistic Regression, LR)又稱為邏輯回歸分析,是分類和預測算法中的一種。通過歷史數(shù)據(jù)的表現(xiàn)對未來結果發(fā)生的概率進行預測。例如,我們可以將購買的概率設置為因變量 ...
- 機器學習的認知和算法總結
2016-04-10
-
機器學習的認知和算法總結
相信不少人都沒弄明白機器學習和數(shù)據(jù)挖掘的區(qū)別是什么?其實機器學習并不等同于數(shù)據(jù)挖掘,數(shù)據(jù)挖掘更多的是從目標角度去理解數(shù)據(jù),然后利用算法建模探索有價值的結論;而機器學習 ...

- 大數(shù)據(jù)挖掘技術之DM經典模型(下)
2016-04-07
-
大數(shù)據(jù)挖掘技術之DM經典模型(下)
接著上篇大數(shù)據(jù)挖掘技術之DM經典模型(上)文章,接下來我們將探討樸素貝葉斯模型、線性回歸、多元回歸、邏輯回歸分析等模型。
4、樸素貝葉斯模型
表查詢模型簡單有效 ...

- 大數(shù)據(jù)、新方法和日常問
2016-01-10
-
大數(shù)據(jù)、新方法和日常問
如果讓我們決定是否去看一部電影,有兩種辦法來做決策:我們可以上豆瓣了解這部電影質量如何,專家的評價怎么樣;也可以在朋友圈瀏覽一下,看看身邊有多少人去看了這部電影。實際生活沒 ...

- 多重共線性問題的幾種解決方法
2016-01-08
-
多重共線性問題的幾種解決方法
在多元線性回歸模型經典假設中,其重要假定之一是回歸模型的解釋變量之間不存在線性關系,也就是說,解釋變量X1,X2,……,Xk中的任何一個都不能是其他解釋變量的線性組合。如 ...
- 面板數(shù)據(jù)分析方法總結
2015-12-25
-
面板數(shù)據(jù)分析方法總結
橫截面的異方差與序列的自相關性是運用面板數(shù)據(jù)模型時可能遇到的最為常見的問題,此時運用OLS可能會產生結果失真,因此為了消除影響,對我國東、中、西部地區(qū)的分析將采用不相關回歸方法( S ...

- 一文帶你快速了解機器學習中的多元線性回歸到底是什么?
2020-07-24
-
線性回歸我們都很熟悉了,是有監(jiān)督學習中最為簡單的一種回歸方式,小編今天就進一步跟大家分享一下多元線性回歸。
一、什么是多元線性回歸
在回歸分析中,如果有兩個或兩個以上的自變量,就稱為多元回歸。線 ...

- 最大后驗估計MAP是什么?它是怎么推導出來的?
2020-07-08
-
最大后驗估計(maximum a posteriori probability estimate), 簡稱為MAP。在貝葉斯統(tǒng)計學中,最大后驗估計是通過利用經驗數(shù)據(jù)獲得對未觀測量的點態(tài)估計。
與極大似然估計類似,不同的是,在似然函數(shù)后面多乘了一 ...

- 常見的機器學習中損失函數(shù)有哪些?
2020-07-03
-
今天我們來盤點一下那些常見的機器學習中的損失函數(shù)有哪些。
用于計算損失的函數(shù)稱為損失函數(shù)。模型每一次預測的好壞用損失函數(shù)來度量。機器通過損失函數(shù)進行學習,如果預測值與實際結果偏離較遠,損失函數(shù)會得 ...

- python散點圖:如何添加擬合線并顯示擬合方程與R方?
2020-06-08
-
python散點圖:如何添加擬合線并顯示擬合方程與R方?我們可以使用polyfit()函數(shù),使用最小二乘法將一些點擬合成一條曲線.
numpy.polyfit(x, y, deg, rcond=None, full=False, w=None, cov=False)
# x:要擬合點的 ...

- 機器學習中的有監(jiān)督和無監(jiān)督都包括些什么?
2020-05-29
-
機器學習算法通常分為有監(jiān)督的(訓練數(shù)據(jù)有標記答案)和無監(jiān)督的(可能存在的任何標簽均未顯示在訓練算法中)。有監(jiān)督的機器學習問題又分為分類(預測非數(shù)字答案,例如錯過抵押貸款的可能性)和回歸(預測 ...

- 有監(jiān)督學習:從過去到現(xiàn)在的模型流行度(深度翻譯好文)!
2020-05-14
-
在過去的幾十年中,機器學習領域發(fā)生了巨大的變化。誠然,有些方法已經存在很長時間了,但仍然是該領域的主要內容。例如,Legendre和Gauss已經在19世紀初提出了最小二乘的概念。在最近的幾十年中,諸如神經網(wǎng)絡等 ...

- 機器學習算法:無監(jiān)督、半監(jiān)督、有監(jiān)督學習算法淺析
2020-05-06
-
隨著人工智能的飛速發(fā)展,機器學習成為當下數(shù)據(jù)分析領域的熱門之一,很多人在平時的工作中,或多或少都會使用到機器學習的算法。這里機器學習的算法進行了盤點,將有監(jiān)督、無監(jiān)督,半監(jiān)督學習等進行了簡單的解 ...

- 參數(shù)估計之點估計和區(qū)間估計
2020-04-09
-
作者 | CDA數(shù)據(jù)分析師
參數(shù)估計(parameter estimation)是根據(jù)從總體中抽取的樣本估計總體分布中包含的未知參數(shù)的方法。人們常常需要根據(jù)手中的數(shù)據(jù),分析或推斷數(shù)據(jù)反映的本質規(guī)律。即根據(jù) ...

- 一文講解機器學習算法中的共線性問題
2020-01-08
-
作者 | 宋老師
來源 | JSong的數(shù)據(jù)科學小站
多重共線性是使用線性回歸算法時經常要面對的一個問題。在其他算法中,例如決策樹和貝葉斯,前者的建模過程是逐步遞進,每次拆分只有一個變量參 ...

- 作為一名數(shù)據(jù)科學從業(yè)者,你應該知道的P值
2019-12-13
-
作者 | SHAROON SAXENA
編譯 | CDA數(shù)據(jù)分析師
Everything you Should Know about p-value from Scratch for Data Science
介紹
當你向有抱負的數(shù)據(jù)科學家談論p值時,以下情況 ...