99999久久久久久亚洲,欧美人与禽猛交狂配,高清日韩av在线影院,一个人在线高清免费观看,啦啦啦在线视频免费观看www

熱線電話:13121318867

登錄
首頁精彩閱讀數(shù)據(jù)挖掘150道試題 測測你的專業(yè)能力過關(guān)嗎(2)_數(shù)據(jù)分析師培訓(xùn)
數(shù)據(jù)挖掘150道試題 測測你的專業(yè)能力過關(guān)嗎(2)_數(shù)據(jù)分析師培訓(xùn)
2015-03-19
收藏

數(shù)據(jù)挖掘150道試題 測測你的專業(yè)能力過關(guān)嗎(2)_數(shù)據(jù)分析師培訓(xùn)


56. 如果規(guī)則集R中不存在兩條規(guī)則被同一條記錄觸發(fā),則稱規(guī)則集R中的規(guī)則為(C);
A, 無序規(guī)則
B,窮舉規(guī)則
C, 互斥規(guī)則
D,有序規(guī)則

57. 如果對屬性值的任一組合,R中都存在一條規(guī)則加以覆蓋,則稱規(guī)則集R中的規(guī)則為(B)
A, 無序規(guī)則
B,窮舉規(guī)則
C, 互斥規(guī)則
D,有序規(guī)則

58. 如果規(guī)則集中的規(guī)則按照優(yōu)先級降序排列,則稱規(guī)則集是 (D)
A, 無序規(guī)則
B,窮舉規(guī)則
C, 互斥規(guī)則
D,有序規(guī)則

59. 如果允許一條記錄觸發(fā)多條分類規(guī)則,把每條被觸發(fā)規(guī)則的后件看作是對相應(yīng)類的一次投票,然后計(jì)票確定測試記錄的類標(biāo)號,稱為(A)
A, 無序規(guī)則
B,窮舉規(guī)則
C, 互斥規(guī)則
D,有序規(guī)則

60. 考慮兩隊(duì)之間的足球比賽:隊(duì)0和隊(duì)1。假設(shè)65%的比賽隊(duì)0勝出,剩余的比賽隊(duì)1獲勝。隊(duì)0獲勝的比賽中只有30%是在隊(duì)1的主場,而隊(duì)1取勝的比賽中75%是主場獲勝。如果下一場比賽在隊(duì)1的主場進(jìn)行隊(duì)1獲勝的概率為 (C)
A,0.75
B,0.35
C,0.4678
D, 0.5738

61. 以下關(guān)于人工神經(jīng)網(wǎng)絡(luò)(ANN)的描述錯(cuò)誤的有 (A)
A,神經(jīng)網(wǎng)絡(luò)對訓(xùn)練數(shù)據(jù)中的噪聲非常魯棒
B,可以處理冗余特征
C,訓(xùn)練ANN是一個(gè)很耗時(shí)的過程
D,至少含有一個(gè)隱藏層的多層神經(jīng)網(wǎng)絡(luò)

62. 通過聚集多個(gè)分類器的預(yù)測來提高分類準(zhǔn)確率的技術(shù)稱為 (A)
A,組合(ensemble)
B,聚集(aggregate)
C,合并(combination)
D,投票(voting)

63. 簡單地將數(shù)據(jù)對象集劃分成不重疊的子集,使得每個(gè)數(shù)據(jù)對象恰在一個(gè)子集中,這種聚類類型稱作( B )
A、層次聚類
B、劃分聚類
C、非互斥聚類
D、模糊聚類

64. 在基本K均值算法里,當(dāng)鄰近度函數(shù)采用( A )的時(shí)候,合適的質(zhì)心是簇中各點(diǎn)的中位數(shù)。
A、曼哈頓距離
B、平方歐幾里德距離
C、余弦距離
D、Bregman散度

65.( C )是一個(gè)觀測值,它與其他觀測值的差別如此之大,以至于懷疑它是由不同的機(jī)制產(chǎn)生的。
A、邊界點(diǎn)
B、質(zhì)心
C、離群點(diǎn)
D、核心點(diǎn)

66. BIRCH是一種( B )。
A、分類器
B、聚類算法
C、關(guān)聯(lián)分析算法
D、特征選擇算法

67. 檢測一元正態(tài)分布中的離群點(diǎn),屬于異常檢測中的基于( A )的離群點(diǎn)檢測。
A、統(tǒng)計(jì)方法
B、鄰近度
C、密度
D、聚類技術(shù)

68.( C )將兩個(gè)簇的鄰近度定義為不同簇的所有點(diǎn)對的平均逐對鄰近度,它是一種凝聚層次聚類技術(shù)。
A、MIN(單鏈)
B、MAX(全鏈)
C、組平均
D、Ward方法

69.( D )將兩個(gè)簇的鄰近度定義為兩個(gè)簇合并時(shí)導(dǎo)致的平方誤差的增量,它是一種凝聚層次聚類技術(shù)。
A、MIN(單鏈)
B、MAX(全鏈)
C、組平均
D、Ward方法

70. DBSCAN在最壞情況下的時(shí)間復(fù)雜度是( B )。
A、O(m)
B、O(m2)
C、O(log m)
D、O(m*log m)

71. 在基于圖的簇評估度量表里面,如果簇度量為proximity(Ci , C),簇權(quán)值為mi ,那么它的類型是( C )。
A、基于圖的凝聚度
B、基于原型的凝聚度
C、基于原型的分離度
D、基于圖的凝聚度和分離度

72. 關(guān)于K均值和DBSCAN的比較,以下說法不正確的是( A )。
A、K均值丟棄被它識別為噪聲的對象,而DBSCAN一般聚類所有對象。
B、K均值使用簇的基于原型的概念,而DBSCAN使用基于密度的概念。
C、K均值很難處理非球形的簇和不同大小的簇,DBSCAN可以處理不同大小和不同形狀的簇。
D、K均值可以發(fā)現(xiàn)不是明顯分離的簇,即便簇有重疊也可以發(fā)現(xiàn),但是DBSCAN會合并有重疊的簇。

73. 以下是哪一個(gè)聚類算法的算法流程:①構(gòu)造k-最近鄰圖。②使用多層圖劃分算法劃分圖。③repeat:合并關(guān)于相對互連性和相對接近性而言,最好地保持簇的自相似性的簇。④until:不再有可以合并的簇。( C )。
A、MST
B、OPOSSUM
C、Chameleon
D、Jarvis-Patrick(JP)

74. 考慮這么一種情況:一個(gè)對象碰巧與另一個(gè)對象相對接近,但屬于不同的類,因?yàn)檫@兩個(gè)對象一般不會共享許多近鄰,所以應(yīng)該選擇( D )的相似度計(jì)算方法。
A、平方歐幾里德距離
B、余弦距離
C、直接相似度
D、共享最近鄰

75. 以下屬于可伸縮聚類算法的是( A )。
A、CURE
B、DENCLUE
C、CLIQUE
D、OPOSSUM

76. 以下哪個(gè)聚類算法不是屬于基于原型的聚類( D )。
A、模糊c均值
B、EM算法
C、SOM
D、CLIQUE

77. 關(guān)于混合模型聚類算法的優(yōu)缺點(diǎn),下面說法正確的是( B )。
A、當(dāng)簇只包含少量數(shù)據(jù)點(diǎn),或者數(shù)據(jù)點(diǎn)近似協(xié)線性時(shí),混合模型也能很好地處理。
B、混合模型比K均值或模糊c均值更一般,因?yàn)樗梢允褂酶鞣N類型的分布。
C、混合模型很難發(fā)現(xiàn)不同大小和橢球形狀的簇。
D、混合模型在有噪聲和離群點(diǎn)時(shí)不會存在問題。

78. 以下哪個(gè)聚類算法不屬于基于網(wǎng)格的聚類算法( D )。
A、STING
B、WaveCluster
C、MAFIA
D、BIRCH

79. 一個(gè)對象的離群點(diǎn)得分是該對象周圍密度的逆。這是基于( C )的離群點(diǎn)定義。
A.概率
B、鄰近度
C、密度
D、聚類

80. 下面關(guān)于Jarvis-Patrick(JP)聚類算法的說法不正確的是( D )。
A、JP聚類擅長處理噪聲和離群點(diǎn),并且能夠處理不同大小、形狀和密度的簇。
B、JP算法對高維數(shù)據(jù)效果良好,尤其擅長發(fā)現(xiàn)強(qiáng)相關(guān)對象的緊致簇。
C、JP聚類是基于SNN相似度的概念。
D、JP聚類的基本時(shí)間復(fù)雜度為O(m)。

二、 多選題

1. 通過數(shù)據(jù)挖掘過程所推倒出的關(guān)系和摘要經(jīng)常被稱為:(A B)
A. 模型
B. 模式
C. 模范
D. 模具

2 尋找數(shù)據(jù)集中的關(guān)系是為了尋找精確、方便并且有價(jià)值地總結(jié)了數(shù)據(jù)的某一特征的表示,這個(gè)過程包括了以下哪些步驟? (A B C D)
A. 決定要使用的表示的特征和結(jié)構(gòu)
B. 決定如何量化和比較不同表示擬合數(shù)據(jù)的好壞
C. 選擇一個(gè)算法過程使評分函數(shù)最優(yōu)
D. 決定用什么樣的數(shù)據(jù)管理原則以高效地實(shí)現(xiàn)算法。

3. 數(shù)據(jù)挖掘的預(yù)測建模任務(wù)主要包括哪幾大類問題? (A B)
A. 分類
B. 回歸
C. 模式發(fā)現(xiàn)
D. 模式匹配

4. 數(shù)據(jù)挖掘算法的組件包括:(A B C D)
A. 模型或模型結(jié)構(gòu)
B. 評分函數(shù)
C. 優(yōu)化和搜索方法
D. 數(shù)據(jù)管理策略

5. 以下哪些學(xué)科和數(shù)據(jù)挖掘有密切聯(lián)系?(A D)
A. 統(tǒng)計(jì)
B. 計(jì)算機(jī)組成原理
C. 礦產(chǎn)挖掘
D. 人工智能

6. 在現(xiàn)實(shí)世界的數(shù)據(jù)中,元組在某些屬性上缺少值是常有的。描述處理該問題的各種方法有: (ABCDE)
A忽略元組
B使用屬性的平均值填充空缺值
C使用一個(gè)全局常量填充空缺值
D使用與給定元組屬同一類的所有樣本的平均值
E使用最可能的值填充空缺值

7.下面哪些屬于可視化高維數(shù)據(jù)技術(shù) (ABCE)
A 矩陣
B 平行坐標(biāo)系
C星形坐標(biāo) D散布圖
E Chernoff臉

8. 對于數(shù)據(jù)挖掘中的原始數(shù)據(jù),存在的問題有: (ABCDE)
A 不一致
B重復(fù)
C不完整
D 含噪聲
E 維度高

9.下列屬于不同的有序數(shù)據(jù)的有:(ABCE)
A 時(shí)序數(shù)據(jù)
B 序列數(shù)據(jù)
C時(shí)間序列數(shù)據(jù)
D事務(wù)數(shù)據(jù)
E空間數(shù)據(jù)

10.下面屬于數(shù)據(jù)集的一般特性的有:( B C D)
A 連續(xù)性
B 維度
C 稀疏性
D 分辨率
E 相異性

11. 下面屬于維歸約常用的線性代數(shù)技術(shù)的有: (A C)
A 主成分分析
B 特征提取
C 奇異值分解
D 特征加權(quán)
E 離散化

12. 下面列出的條目中,哪些是數(shù)據(jù)倉庫的基本特征: (ACD)
A. 數(shù)據(jù)倉庫是面向主題的
B. 數(shù)據(jù)倉庫的數(shù)據(jù)是集成的
C. 數(shù)據(jù)倉庫的數(shù)據(jù)是相對穩(wěn)定的
D. 數(shù)據(jù)倉庫的數(shù)據(jù)是反映歷史變化的
E. 數(shù)據(jù)倉庫是面向事務(wù)的

13. 以下各項(xiàng)均是針對數(shù)據(jù)倉庫的不同說法,你認(rèn)為正確的有(BCDE )。
A.數(shù)據(jù)倉庫就是數(shù)據(jù)庫
B.數(shù)據(jù)倉庫是一切商業(yè)智能系統(tǒng)的基礎(chǔ)
C.數(shù)據(jù)倉庫是面向業(yè)務(wù)的,支持聯(lián)機(jī)事務(wù)處理(OLTP)
D.數(shù)據(jù)倉庫支持決策而非事務(wù)處理
E.數(shù)據(jù)倉庫的主要目標(biāo)就是幫助分析,做長期性的戰(zhàn)略制定

14. 數(shù)據(jù)倉庫在技術(shù)上的工作過程是: (ABCD)
A. 數(shù)據(jù)的抽取
B. 存儲和管理
C. 數(shù)據(jù)的表現(xiàn)
D. 數(shù)據(jù)倉庫設(shè)計(jì)
E. 數(shù)據(jù)的表現(xiàn)

15. 聯(lián)機(jī)分析處理包括以下哪些基本分析功能? (BCD)
A. 聚類
B. 切片
C. 轉(zhuǎn)軸
D. 切塊
E. 分類

16. 利用Apriori算法計(jì)算頻繁項(xiàng)集可以有效降低計(jì)算頻繁集的時(shí)間復(fù)雜度。在以下的購物籃中產(chǎn)生支持度不小于3的候選3-項(xiàng)集,在候選2-項(xiàng)集中需要剪枝的是(BD)
ID 項(xiàng)集
1 面包、牛奶
2 面包、尿布、啤酒、雞蛋
3 牛奶、尿布、啤酒、可樂
4 面包、牛奶、尿布、啤酒
5 面包、牛奶、尿布、可樂

A、啤酒、尿布
B、啤酒、面包
C、面包、尿布
D、啤酒、牛奶

17. 下表是一個(gè)購物籃,假定支持度閾值為40%,其中__(A D)__是頻繁閉項(xiàng)集。
TID 項(xiàng)
1 abc
2 abcd
3 bce
4 acde
5 de
A、abc
B、ad
C、cd
D、de

18. Apriori算法的計(jì)算復(fù)雜度受__(ABCD)?__影響。
A、支持度閥值
B、項(xiàng)數(shù)(維度)
C、事務(wù)數(shù)
D、事務(wù)平均寬度

19. 非頻繁模式__(AD)__
A、其支持度小于閾值
B、都是不讓人感興趣的
C、包含負(fù)模式和負(fù)相關(guān)模式
D、對異常數(shù)據(jù)項(xiàng)敏感

20. 以下屬于分類器評價(jià)或比較尺度的有: (ACD)

A,預(yù)測準(zhǔn)確度
B,召回率
C,模型描述的簡潔度
D,計(jì)算復(fù)雜度

21. 在評價(jià)不平衡類問題分類的度量方法有如下幾種,(ABCD)
A,F1度量
B,召回率(recall)
C,精度(precision)
D,真正率(ture positive rate,TPR)

22. 貝葉斯信念網(wǎng)絡(luò)(BBN)有如下哪些特點(diǎn), (AB)
A,構(gòu)造網(wǎng)絡(luò)費(fèi)時(shí)費(fèi)力
B,對模型的過分問題非常魯棒
C,貝葉斯網(wǎng)絡(luò)不適合處理不完整的數(shù)據(jù)
D,網(wǎng)絡(luò)結(jié)構(gòu)確定后,添加變量相當(dāng)麻煩

23. 如下哪些不是最近鄰分類器的特點(diǎn), (C)
A,它使用具體的訓(xùn)練實(shí)例進(jìn)行預(yù)測,不必維護(hù)源自數(shù)據(jù)的模型
B,分類一個(gè)測試樣例開銷很大
C,最近鄰分類器基于全局信息進(jìn)行預(yù)測
D,可以生產(chǎn)任意形狀的決策邊界

24. 如下那些不是基于規(guī)則分類器的特點(diǎn),(AC)
A,規(guī)則集的表達(dá)能力遠(yuǎn)不如決策樹
B,基于規(guī)則的分類器都對屬性空間進(jìn)行直線劃分,并將類指派到每個(gè)劃分
C,無法被用來產(chǎn)生更易于解釋的描述性模型
D,非常適合處理類分布不平衡的數(shù)據(jù)集

25. 以下屬于聚類算法的是( ABD )。
A、K均值
B、DBSCAN
C、Apriori
D、Jarvis-Patrick(JP)

26.( CD )都屬于簇有效性的監(jiān)督度量。
A、輪廓系數(shù)
B、共性分類相關(guān)系數(shù)
C、熵
D、F度量

27. 簇有效性的面向相似性的度量包括( BC )。
A、精度
B、Rand統(tǒng)計(jì)量
C、Jaccard系數(shù)
D、召回率

28.( ABCD )這些數(shù)據(jù)特性都是對聚類分析具有很強(qiáng)影響的。
A、高維性
B、規(guī)模
C、稀疏性
D、噪聲和離群點(diǎn)

29. 在聚類分析當(dāng)中,( AD )等技術(shù)可以處理任意形狀的簇。
A、MIN(單鏈)
B、MAX(全鏈)
C、組平均
D、Chameleon

30. ( AB )都屬于分裂的層次聚類算法。
A、二分K均值
B、MST
C、Chameleon
D、組平均

三、 判斷題

1. 數(shù)據(jù)挖掘的主要任務(wù)是從數(shù)據(jù)中發(fā)現(xiàn)潛在的規(guī)則,從而能更好的完成描述數(shù)據(jù)、預(yù)測數(shù)據(jù)等任務(wù)。 (對)

2. 數(shù)據(jù)挖掘的目標(biāo)不在于數(shù)據(jù)采集策略,而在于對于已經(jīng)存在的數(shù)據(jù)進(jìn)行模式的發(fā)掘。(對)3. 圖挖掘技術(shù)在社會網(wǎng)絡(luò)分析中扮演了重要的角色。(對)

4. 模式為對數(shù)據(jù)集的全局性總結(jié),它對整個(gè)測量空間的每一點(diǎn)做出描述;模型則對變量變化空間的一個(gè)有限區(qū)域做出描述。(錯(cuò))

5. 尋找模式和規(guī)則主要是對數(shù)據(jù)進(jìn)行干擾,使其符合某種規(guī)則以及模式。(錯(cuò))

6. 離群點(diǎn)可以是合法的數(shù)據(jù)對象或者值?!   。▽Γ?/span>

7. 離散屬性總是具有有限個(gè)值?!       。ㄥe(cuò))

8. 噪聲和偽像是數(shù)據(jù)錯(cuò)誤這一相同表述的兩種叫法?!    。ㄥe(cuò))

9. 用于分類的離散化方法之間的根本區(qū)別在于是否使用類信息?!  。▽Γ?/span>

10. 特征提取技術(shù)并不依賴于特定的領(lǐng)域?!     。ㄥe(cuò))

11. 序列數(shù)據(jù)沒有時(shí)間戳?!     。▽Γ?/span>

12. 定量屬性可以是整數(shù)值或者是連續(xù)值?!    。▽Γ?/span>

13. 可視化技術(shù)對于分析的數(shù)據(jù)類型通常不是專用性的。   ?。ㄥe(cuò))

14. DSS主要是基于數(shù)據(jù)倉庫.聯(lián)機(jī)數(shù)據(jù)分析和數(shù)據(jù)挖掘技術(shù)的應(yīng)用。(對)

15. OLAP技術(shù)側(cè)重于把數(shù)據(jù)庫中的數(shù)據(jù)進(jìn)行分析、轉(zhuǎn)換成輔助決策信息,是繼數(shù)據(jù)庫技術(shù)發(fā)展之后迅猛發(fā)展起來的一種新技術(shù)。 (對)

16. 商業(yè)智能系統(tǒng)與一般交易系統(tǒng)之間在系統(tǒng)設(shè)計(jì)上的主要區(qū)別在于:后者把結(jié)構(gòu)強(qiáng)加于商務(wù)之上,一旦系統(tǒng)設(shè)計(jì)完畢,其程序和規(guī)則不會輕易改變;而前者則是一個(gè)學(xué)習(xí)型系統(tǒng),能自動適應(yīng)商務(wù)不斷變化的要求。 (對)

17. 數(shù)據(jù)倉庫中間層OLAP服務(wù)器只能采用關(guān)系型OLAP (錯(cuò))

18.數(shù)據(jù)倉庫系統(tǒng)的組成部分包括數(shù)據(jù)倉庫,倉庫管理,數(shù)據(jù)抽取,分析工具等四個(gè)部分. (錯(cuò))

19. Web數(shù)據(jù)挖掘是通過數(shù)據(jù)庫仲的一些屬性來預(yù)測另一個(gè)屬性,它在驗(yàn)證用戶提出的假設(shè)過程中提取信息. (錯(cuò))

21. 關(guān)聯(lián)規(guī)則挖掘過程是發(fā)現(xiàn)滿足最小支持度的所有項(xiàng)集代表的規(guī)則。(錯(cuò))

22. 利用先驗(yàn)原理可以幫助減少頻繁項(xiàng)集產(chǎn)生時(shí)需要探查的候選項(xiàng)個(gè)數(shù)(對)。

23. 先驗(yàn)原理可以表述為:如果一個(gè)項(xiàng)集是頻繁的,那包含它的所有項(xiàng)集也是頻繁的。(錯(cuò))

24. 如果規(guī)則 不滿足置信度閾值,則形如 的規(guī)則一定也不滿足置信度閾值,其中 是X的子集。(對)

25. 具有較高的支持度的項(xiàng)集具有較高的置信度。(錯(cuò))

26. 聚類(clustering)是這樣的過程:它找出描述并區(qū)分?jǐn)?shù)據(jù)類或概念的模型(或函數(shù)),以便能夠使用模型預(yù)測類標(biāo)記未知的對象類。 (錯(cuò))

27. 分類和回歸都可用于預(yù)測,分類的輸出是離散的類別值,而回歸的輸出是連續(xù)數(shù)值。(對)

28. 對于SVM分類算法,待分樣本集中的大部分樣本不是支持向量,移去或者減少這些樣本對分類結(jié)果沒有影響。 (對)

29. Bayes法是一種在已知后驗(yàn)概率與類條件概率的情況下的模式分類方法,待分樣本的分類結(jié)果取決于各類域中樣本的全體。 (錯(cuò))

30.分類模型的誤差大致分為兩種:訓(xùn)練誤差(training error)和泛化誤差(generalization error). (對)

31. 在決策樹中,隨著樹中結(jié)點(diǎn)數(shù)變得太大,即使模型的訓(xùn)練誤差還在繼續(xù)減低,但是檢驗(yàn)誤差開始增大,這是出現(xiàn)了模型擬合不足的問題。 (錯(cuò))

32. SVM是這樣一個(gè)分類器,他尋找具有最小邊緣的超平面,因此它也經(jīng)常被稱為最小邊緣分類器(minimal margin classifier) (錯(cuò))

33. 在聚類分析當(dāng)中,簇內(nèi)的相似性越大,簇間的差別越大,聚類的效果就越差。(錯(cuò))

34. 聚類分析可以看作是一種非監(jiān)督的分類。(對)

35. K均值是一種產(chǎn)生劃分聚類的基于密度的聚類算法,簇的個(gè)數(shù)由算法自動地確定。(錯(cuò))

36. 給定由兩次運(yùn)行K均值產(chǎn)生的兩個(gè)不同的簇集,誤差的平方和最大的那個(gè)應(yīng)該被視為較優(yōu)。(錯(cuò))

37. 基于鄰近度的離群點(diǎn)檢測方法不能處理具有不同密度區(qū)域的數(shù)據(jù)集。(對)

38. 如果一個(gè)對象不強(qiáng)屬于任何簇,那么該對象是基于聚類的離群點(diǎn)。(對)
文章來源:CDA數(shù)據(jù)分析師官網(wǎng)
39. 從點(diǎn)作為個(gè)體簇開始,每一步合并兩個(gè)最接近的簇,這是一種分裂的層次聚類方法。(錯(cuò))40. DBSCAN是相對抗噪聲的,并且能夠處理任意形狀和大小的簇。(對)

數(shù)據(jù)分析咨詢請掃描二維碼

若不方便掃碼,搜微信號:CDAshujufenxi

數(shù)據(jù)分析師資訊
更多

OK
客服在線
立即咨詢
客服在線
立即咨詢
') } function initGt() { var handler = function (captchaObj) { captchaObj.appendTo('#captcha'); captchaObj.onReady(function () { $("#wait").hide(); }).onSuccess(function(){ $('.getcheckcode').removeClass('dis'); $('.getcheckcode').trigger('click'); }); window.captchaObj = captchaObj; }; $('#captcha').show(); $.ajax({ url: "/login/gtstart?t=" + (new Date()).getTime(), // 加隨機(jī)數(shù)防止緩存 type: "get", dataType: "json", success: function (data) { $('#text').hide(); $('#wait').show(); // 調(diào)用 initGeetest 進(jìn)行初始化 // 參數(shù)1:配置參數(shù) // 參數(shù)2:回調(diào),回調(diào)的第一個(gè)參數(shù)驗(yàn)證碼對象,之后可以使用它調(diào)用相應(yīng)的接口 initGeetest({ // 以下 4 個(gè)配置參數(shù)為必須,不能缺少 gt: data.gt, challenge: data.challenge, offline: !data.success, // 表示用戶后臺檢測極驗(yàn)服務(wù)器是否宕機(jī) new_captcha: data.new_captcha, // 用于宕機(jī)時(shí)表示是新驗(yàn)證碼的宕機(jī) product: "float", // 產(chǎn)品形式,包括:float,popup width: "280px", https: true // 更多配置參數(shù)說明請參見:http://docs.geetest.com/install/client/web-front/ }, handler); } }); } function codeCutdown() { if(_wait == 0){ //倒計(jì)時(shí)完成 $(".getcheckcode").removeClass('dis').html("重新獲取"); }else{ $(".getcheckcode").addClass('dis').html("重新獲取("+_wait+"s)"); _wait--; setTimeout(function () { codeCutdown(); },1000); } } function inputValidate(ele,telInput) { var oInput = ele; var inputVal = oInput.val(); var oType = ele.attr('data-type'); var oEtag = $('#etag').val(); var oErr = oInput.closest('.form_box').next('.err_txt'); var empTxt = '請輸入'+oInput.attr('placeholder')+'!'; var errTxt = '請輸入正確的'+oInput.attr('placeholder')+'!'; var pattern; if(inputVal==""){ if(!telInput){ errFun(oErr,empTxt); } return false; }else { switch (oType){ case 'login_mobile': pattern = /^1[3456789]\d{9}$/; if(inputVal.length==11) { $.ajax({ url: '/login/checkmobile', type: "post", dataType: "json", data: { mobile: inputVal, etag: oEtag, page_ur: window.location.href, page_referer: document.referrer }, success: function (data) { } }); } break; case 'login_yzm': pattern = /^\d{6}$/; break; } if(oType=='login_mobile'){ } if(!!validateFun(pattern,inputVal)){ errFun(oErr,'') if(telInput){ $('.getcheckcode').removeClass('dis'); } }else { if(!telInput) { errFun(oErr, errTxt); }else { $('.getcheckcode').addClass('dis'); } return false; } } return true; } function errFun(obj,msg) { obj.html(msg); if(msg==''){ $('.login_submit').removeClass('dis'); }else { $('.login_submit').addClass('dis'); } } function validateFun(pat,val) { return pat.test(val); }