')
}
function initGt() {
var handler = function (captchaObj) {
captchaObj.appendTo('#captcha');
captchaObj.onReady(function () {
$("#wait").hide();
}).onSuccess(function(){
$('.getcheckcode').removeClass('dis');
$('.getcheckcode').trigger('click');
});
window.captchaObj = captchaObj;
};
$('#captcha').show();
$.ajax({
url: "/login/gtstart?t=" + (new Date()).getTime(), // 加隨機數(shù)防止緩存
type: "get",
dataType: "json",
success: function (data) {
$('#text').hide();
$('#wait').show();
// 調用 initGeetest 進行初始化
// 參數(shù)1:配置參數(shù)
// 參數(shù)2:回調,回調的第一個參數(shù)驗證碼對象,之后可以使用它調用相應的接口
initGeetest({
// 以下 4 個配置參數(shù)為必須,不能缺少
gt: data.gt,
challenge: data.challenge,
offline: !data.success, // 表示用戶后臺檢測極驗服務器是否宕機
new_captcha: data.new_captcha, // 用于宕機時表示是新驗證碼的宕機
product: "float", // 產(chǎn)品形式,包括:float,popup
width: "280px",
https: true
// 更多配置參數(shù)說明請參見:http://docs.geetest.com/install/client/web-front/
}, handler);
}
});
}
function codeCutdown() {
if(_wait == 0){ //倒計時完成
$(".getcheckcode").removeClass('dis').html("重新獲取");
}else{
$(".getcheckcode").addClass('dis').html("重新獲取("+_wait+"s)");
_wait--;
setTimeout(function () {
codeCutdown();
},1000);
}
}
function inputValidate(ele,telInput) {
var oInput = ele;
var inputVal = oInput.val();
var oType = ele.attr('data-type');
var oEtag = $('#etag').val();
var oErr = oInput.closest('.form_box').next('.err_txt');
var empTxt = '請輸入'+oInput.attr('placeholder')+'!';
var errTxt = '請輸入正確的'+oInput.attr('placeholder')+'!';
var pattern;
if(inputVal==""){
if(!telInput){
errFun(oErr,empTxt);
}
return false;
}else {
switch (oType){
case 'login_mobile':
pattern = /^1[3456789]\d{9}$/;
if(inputVal.length==11) {
$.ajax({
url: '/login/checkmobile',
type: "post",
dataType: "json",
data: {
mobile: inputVal,
etag: oEtag,
page_ur: window.location.href,
page_referer: document.referrer
},
success: function (data) {
}
});
}
break;
case 'login_yzm':
pattern = /^\d{6}$/;
break;
}
if(oType=='login_mobile'){
}
if(!!validateFun(pattern,inputVal)){
errFun(oErr,'')
if(telInput){
$('.getcheckcode').removeClass('dis');
}
}else {
if(!telInput) {
errFun(oErr, errTxt);
}else {
$('.getcheckcode').addClass('dis');
}
return false;
}
}
return true;
}
function errFun(obj,msg) {
obj.html(msg);
if(msg==''){
$('.login_submit').removeClass('dis');
}else {
$('.login_submit').addClass('dis');
}
}
function validateFun(pat,val) {
return pat.test(val);
}
首頁 > 行業(yè)圖譜 >

- SPSS分析技術:多重線性回歸模型;極端值與多重共線性的識別與處理
2017-05-10
-
SPSS分析技術:多重線性回歸模型;極端值與多重共線性的識別與處理
如果擬合質量不好,可能存在的問題主要有以下兩個方面:
極端值(強點)的影響。我們都知道,在線性回歸分析中,自變量回歸系數(shù)的確定主要 ...

- 使用Python進行線性回歸
2017-05-09
-
使用Python進行線性回歸
線性回歸是最簡單同時也是最常用的一個統(tǒng)計模型。線性回歸具有結果易于理解,計算量小等優(yōu)點。如果一個簡單的線性回歸就能取得非常不錯的預測效果,那么就沒有必要采用復雜精深的模型了 ...

- 大數(shù)據(jù)等最核心的關鍵技術:32個算法
2017-05-09
-
大數(shù)據(jù)等最核心的關鍵技術:32個算法
奧地利符號計算研究所(Research
Institute for Symbolic Computation,簡稱RISC)的Christoph
Koutschan博士在自己的頁面上發(fā)布了一篇文章,提到他做了一個調查,參與者 ...

- 模式識別和機器學習、數(shù)據(jù)挖掘的區(qū)別與聯(lián)系
2017-05-05
-
模式識別和機器學習、數(shù)據(jù)挖掘的區(qū)別與聯(lián)系
(一)模式識別的誕生與人工智能
自動控制起始是從工業(yè)革命之后,人們就希望設計出減少人工干預,能自己進行調節(jié)(regulate)的機器,工程領域開始想出了根軌跡等等 ...

- 數(shù)據(jù)挖掘算法(logistic回歸,隨機森林,GBDT和xgboost)
2017-05-04
-
數(shù)據(jù)挖掘算法(logistic回歸,隨機森林,GBDT和xgboost)
面網(wǎng)易數(shù)據(jù)挖掘工程師崗位,第一次面數(shù)據(jù)挖掘的崗位,只想著能夠去多準備一些,體驗面這個崗位的感覺,雖然最好心有不甘告終,不過繼續(xù)加油。
不過 ...

- 機器學習:形如拋物線的散點圖在python和R中的非線性回歸擬合方法
2017-04-28
-
機器學習:形如拋物線的散點圖在python和R中的非線性回歸擬合方法
對于樣本數(shù)據(jù)的散點圖形如函數(shù)y=ax2+bx+c的圖像的數(shù)據(jù), 在python中的擬合過程為:
##最小二乘法
import numpy as np
import scipy as sp
impor ...

- R語言與格式、日期格式、格式轉化
2017-04-20
-
R語言與格式、日期格式、格式轉化
R語言的基礎包中提供了兩種類型的時間數(shù)據(jù),一類是Date日期數(shù)據(jù),它不包括時間和時區(qū)信息,另一類是POSIXct/POSIXlt類型數(shù)據(jù),其中包括了日期、時間和時區(qū)信息?;究偨Y如下 ...

- 嶺回歸分析及其SPSS實現(xiàn)方法
2017-04-05
-
嶺回歸分析及其SPSS實現(xiàn)方法
近日有醫(yī)院的小伙伴問起嶺回歸分析的SPSS操作,在此與大家一起復習一下。
嶺回歸分析(RidgeRegression)是一種改良的最小二乘估計方法,它是用于解決在線性回歸分析中自變量存 ...

- 簡單易學的機器學習算法—嶺回歸(Ridge Regression)
2017-03-24
-
簡單易學的機器學習算法—嶺回歸(Ridge Regression)
一、一般線性回歸遇到的問題
在處理復雜的數(shù)據(jù)的回歸問題時,普通的線性回歸會遇到一些問題,主要表現(xiàn)在:
預測精度:這里要處理好這樣 ...

- 斯坦福機器學習實現(xiàn)與分析之二(線性回歸)
2017-03-15
-
斯坦福機器學習實現(xiàn)與分析之二(線性回歸)
回歸問題提出
首先需要明確回歸問題的根本目的在于預測。對于某個問題,一般我們不可能測量出每一種情況(工作量太大),故多是測量一組數(shù)據(jù),基于此數(shù)據(jù)去預 ...

- 線性回歸與梯度下降算法
2017-03-12
-
線性回歸與梯度下降算法
1.1 線性回歸
在統(tǒng)計學中,線性回歸(Linear Regression)是利用稱為線性回歸方程的最小平方函數(shù)對一個或多個自變量和因變量之間關系進行建模的一種回歸分析。這種函 ...

- 干貨 | 基礎機器學習算法
2017-03-10
-
本篇內容主要是面向機器學習初學者,介紹常見的機器學習算法,當然,歡迎同行交流。
哲學要回答的基本問題是從哪里來、我是誰、到哪里去,尋找答案的過程或許可以借鑒機器學習的套路:組織數(shù)據(jù)->挖掘知識->預測未來。 ...

- R語言學習筆記三
2017-02-17
-
R語言學習筆記三
10)求解線性方程組和逆矩陣
Solve函數(shù)求出a %*% x = b中的x向量值,即求解線性方程組,通常使用前2個參數(shù),第一個是a,為系數(shù)矩陣 ,第二是b為常數(shù)項,當b ...

- R語言快速深度學習進行回歸預測
2017-02-15
-
R語言快速深度學習進行回歸預測
深度學習在過去幾年,由于卷積神經(jīng)網(wǎng)絡的特征提取能力讓這個算法又火了一下, 其實 在很多年以前早就有所出現(xiàn),但是由于深度學習的計算復雜度問題,一直沒有被廣泛應用。
一般 ...

- R語言做簡單的一元線性回歸
2017-02-15
-
R語言做簡單的一元線性回歸
簡單舉一個例子
某商業(yè)銀行2002年主要業(yè)務數(shù)據(jù)
如何將這些數(shù)據(jù)添加到R中?
> y<- c(0.9,1.1,4.8,3.2,7.8,2.7,1.6,12.5,1.0,2.6,0.3,4.0,0.8,3.5,10.2,3.0,0.2,0.4,1.0,6.8,11.6,1. ...

- 數(shù)據(jù)分析中常見的七種回歸分析以及R語言實現(xiàn)(四)---多項式回歸
2017-01-23
-
數(shù)據(jù)分析中常見的七種回歸分析以及R語言實現(xiàn)(四)---多項式回歸
在我們平時做回歸的時候,大部分都是假定自變量和因變量是線性,但有時候自變量和因變量可能是非線性的,這時候我們就可能需要多項式回歸了,多 ...

- 數(shù)據(jù)分析中常見的七種回歸分析以及R語言實現(xiàn)(三)---嶺回歸
2017-01-23
-
數(shù)據(jù)分析中常見的七種回歸分析以及R語言實現(xiàn)(三)---嶺回歸
我們在回歸分析的時候,古典模型中有一個基本的假定就是自變量之間是不相關的,但是如果我們在擬合出來的回歸模型出現(xiàn)了自變量之間高度相關的話,可 ...

- 數(shù)據(jù)分析中常見的七種回歸分析以及R語言實現(xiàn)(一)--簡單線性模型
2017-01-23
-
數(shù)據(jù)分析中常見的七種回歸分析以及R語言實現(xiàn)(一)--簡單線性模型
剛剛學習數(shù)據(jù)分析的人應該知道回歸分析是作為預測用的一種模型,它主要是通過函數(shù)來表達因變量(連續(xù)值)和自變量變量的關系,通俗的來說就是Y ...

- Python數(shù)據(jù)挖掘之線性回歸知識及預測糖尿病實例
2017-01-15
-
Python數(shù)據(jù)挖掘之線性回歸知識及預測糖尿病實例
今天主要講述的內容是關于一元線性回歸的知識,Python實現(xiàn),包括以下內容:
1.機器學習常用數(shù)據(jù)集介紹
  ...

- 數(shù)據(jù)的無量綱化處理和標準化處理的區(qū)別是什么
2017-01-07
-
數(shù)據(jù)的無量綱化處理和標準化處理的區(qū)別是什么
請教:兩者除了方法上有所不同外,在其他方面還有什么區(qū)別?
解答:
標準化處理方法是無量綱化處理的一種方法。除此之外,還有相對化處理方法(包括初值 ...