99999久久久久久亚洲,欧美人与禽猛交狂配,高清日韩av在线影院,一个人在线高清免费观看,啦啦啦在线视频免费观看www

熱線電話:13121318867

登錄
首頁備考教材CDA LEVEL III
CDA LEVEL III
2023-10-11
收藏

一、總則

CDA(Certified Data Analyst),即“CDA數(shù)據(jù)分析師”,是在數(shù)字經(jīng)濟(jì)大背景和人工智能時(shí)代趨勢(shì)下,面向全行業(yè)的資格認(rèn)證,旨在提升用戶數(shù)字技能,助力企業(yè)數(shù)字化轉(zhuǎn)型,推動(dòng)行業(yè)數(shù)字化發(fā)展?!窩DA人才考核標(biāo)準(zhǔn)」是面向全行業(yè)數(shù)據(jù)相關(guān)崗位的一套科學(xué)化、專業(yè)化、國際化的人才技能準(zhǔn)則,CDA考試大綱規(guī)定并明確了數(shù)據(jù)分析師認(rèn)證考試的具體范圍、內(nèi)容和知識(shí)點(diǎn),考生可按照大綱要求進(jìn)行相關(guān)知識(shí)的學(xué)習(xí),獲取技能,成為專業(yè)人才。

二、考試形式與試卷結(jié)構(gòu)

考試方式:一年四屆 (3、6、9、12月的最后一個(gè)周六),線下統(tǒng)考,上機(jī)答題。

考試題型:客觀選擇題(單選60題+多選30題+內(nèi)容相關(guān)10題)

案例實(shí)操題(1題)

考試時(shí)間:90分鐘(客觀選擇題),120分鐘(案例實(shí)操題),共210分鐘

考試成績(jī):分為A、B、C、D四個(gè)層次,A、B、C為通過考試,D為不通過

考試要求:客觀選擇題為閉卷上機(jī)答題,無需攜帶計(jì)算器及其他考試無關(guān)用品。

     案例實(shí)操題考生須自行攜帶電腦操作(安裝好帶有數(shù)據(jù)挖掘功能的軟件如:PYTHON、SQL、SPSS
       MODELER、R、SAS、WEKA等,進(jìn)行案例操作分析。案例數(shù)據(jù)將統(tǒng)一提供CSV文件)。

三、知識(shí)要求

針對(duì)不同知識(shí),掌握程度的要求分為【領(lǐng)會(huì)】、【熟知】、【應(yīng)用】三個(gè)級(jí)別,考生應(yīng)按照不同知識(shí)要求進(jìn)行學(xué)習(xí)。

1.領(lǐng)會(huì):考生能夠了解規(guī)定的知識(shí)點(diǎn),并能夠了解規(guī)定知識(shí)點(diǎn)的內(nèi)涵與外延,了解其內(nèi)容要點(diǎn)之間的區(qū)別與聯(lián)系,并能做出正確的闡述、解釋和說明。

2.熟知:考生須掌握知識(shí)的要點(diǎn),并能夠正確理解和記憶相關(guān)理論方法,能夠根據(jù)不同要求,做出邏輯嚴(yán)密的解釋、說明和闡述。此部分為考試的重點(diǎn)部分。

3.應(yīng)用:考生須學(xué)會(huì)將知識(shí)點(diǎn)落地實(shí)踐,并能夠結(jié)合相關(guān)工具進(jìn)行商業(yè)應(yīng)用,能夠根據(jù)具體要求,給出問題的具體實(shí)施流程和策略。

四、考試科目

PART 1 數(shù)據(jù)挖掘概論(占比15%)

a.數(shù)據(jù)挖掘概要(3%)

b.數(shù)據(jù)挖掘方法論(3%)

c.基礎(chǔ)數(shù)據(jù)挖掘技術(shù)(4%)

d.進(jìn)階數(shù)據(jù)挖掘技術(shù)(5%)

PART 2 高級(jí)數(shù)據(jù)處理特征工程(占比25%)

a.高級(jí)數(shù)據(jù)處理(5%)

b.特征工程概要(2%)

c.特征建構(gòu)(3%)

d.特征選擇(5%)

e.特征轉(zhuǎn)換(5%)

f.特征學(xué)習(xí)(5%)

PART 3 自然語言處理與文本分析(占比20%)

a.自然語言處理概要(占比2%)

b.分詞與詞性標(biāo)注(占比4%)

c.文本挖掘概要(占比2%)

d.關(guān)鍵詞提?。ㄕ急?%)

e.文本非結(jié)構(gòu)數(shù)據(jù)轉(zhuǎn)結(jié)構(gòu)(占比8%)

PART 4 機(jī)器學(xué)習(xí)算法(占比40%)

a.樸素貝葉斯(4%)

b.決策樹(分類樹及回歸樹)(5%)

c.神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)(5%)

d.支持向量機(jī)(4%)

e.集成方法(5%)

f.聚類分析(5%)

g.關(guān)聯(lián)規(guī)則(4%)

h.序列模式(3%)

i.模型評(píng)估(5%)

PART 5 機(jī)器學(xué)習(xí)實(shí)戰(zhàn)
(本部分內(nèi)容考查方式為案例實(shí)操,不計(jì)入客觀選擇題占比。)

a.自動(dòng)機(jī)器學(xué)習(xí)

b.類別不平衡問題

c.半監(jiān)督學(xué)習(xí)

d.模型優(yōu)化

五、科目?jī)?nèi)容

1、數(shù)據(jù)挖掘概要
【領(lǐng)會(huì)】
數(shù)據(jù)挖掘在政府部門及互聯(lián)網(wǎng)、金融、零售、醫(yī)藥等行業(yè)的應(yīng)用
【熟知】
數(shù)據(jù)挖掘的起源、定義及目標(biāo)
數(shù)據(jù)挖掘的發(fā)展歷程
【應(yīng)用】
根據(jù)給定的數(shù)據(jù)建立一個(gè)數(shù)據(jù)挖掘的項(xiàng)目
2、數(shù)據(jù)挖掘方法論
【熟知】
數(shù)據(jù)挖掘步驟(字段選擇、數(shù)據(jù)清洗字段擴(kuò)充、數(shù)據(jù)編碼、數(shù)據(jù)挖掘、結(jié)果呈現(xiàn))
數(shù)據(jù)挖掘技術(shù)的產(chǎn)業(yè)標(biāo)準(zhǔn)(CRISP-DM及SEMMA)
【應(yīng)用】
運(yùn)用數(shù)據(jù)挖掘進(jìn)行不同文件格式的數(shù)據(jù)導(dǎo)入,并進(jìn)行初步的數(shù)據(jù)探索,探索的內(nèi)容包含數(shù)值型字段的描述性統(tǒng)計(jì)分析、直方圖(需與目標(biāo)字段做連接)、缺失值分析及類別型字段的描述性統(tǒng)計(jì)分析條形圖(需與目標(biāo)字段做連接、缺失值分析。數(shù)據(jù)探索的結(jié)果可進(jìn)行初步的字段篩選。
3、基礎(chǔ)數(shù)據(jù)挖掘技術(shù)
【領(lǐng)會(huì)】
可視化技術(shù)(能使用相關(guān)工具根據(jù)業(yè)務(wù)問題做出可視化數(shù)據(jù)報(bào)告)
【熟知】
案例為本的學(xué)習(xí)(Case-based Learning):KNN(K-Nearest Neighbor)原理
數(shù)據(jù)的準(zhǔn)備
樣本點(diǎn)間距離的計(jì)算(Manhattan Distance、City-Block Distance、Euclidean Distance)
【應(yīng)用】
運(yùn)用數(shù)據(jù)挖掘中的KNN算法進(jìn)行分類預(yù)測(cè)、數(shù)字預(yù)測(cè)及內(nèi)容推薦。建模的過程需考慮將數(shù)據(jù)進(jìn)行適當(dāng)?shù)霓D(zhuǎn)換以獲得更優(yōu)的分析結(jié)果。
4、進(jìn)階數(shù)據(jù)挖掘技術(shù)
【熟知】
數(shù)據(jù)挖掘技術(shù)的功能分類
描述型數(shù)據(jù)挖掘/無監(jiān)督數(shù)據(jù)挖掘關(guān)聯(lián)規(guī)則、序列模式、聚類分析)
預(yù)測(cè)型數(shù)據(jù)挖掘/有監(jiān)督數(shù)據(jù)挖掘(分類、預(yù)測(cè))
1、高級(jí)數(shù)據(jù)預(yù)處理
【領(lǐng)會(huì)】
數(shù)據(jù)過濾(理解如何通過數(shù)據(jù)過濾的方式,建立區(qū)隔化模型,以提升模型的預(yù)測(cè)效果)
內(nèi)/外部數(shù)據(jù)的擴(kuò)充方法
【熟知】
缺失值的高級(jí)填補(bǔ)技術(shù),包括KNN填補(bǔ)、XGBoosting填補(bǔ)
高級(jí)數(shù)據(jù)轉(zhuǎn)換技術(shù),包括數(shù)據(jù)泛化(Generalization)、數(shù)據(jù)趨勢(shì)離散化(Trend Discretization)
【應(yīng)用】
運(yùn)用高級(jí)數(shù)據(jù)預(yù)處理技術(shù)進(jìn)行數(shù)據(jù)過濾,以建立區(qū)隔化模型
運(yùn)用高級(jí)數(shù)據(jù)預(yù)處理技術(shù)進(jìn)行缺失值的偵測(cè)及填補(bǔ)
運(yùn)用高級(jí)數(shù)據(jù)預(yù)處理技術(shù)進(jìn)行數(shù)據(jù)泛化的處理
運(yùn)用高級(jí)數(shù)據(jù)預(yù)處理技術(shù)進(jìn)行數(shù)據(jù)趨勢(shì)離散化的處理
評(píng)估上述不同的數(shù)據(jù)處理方法對(duì)模型效能的影響
2、特征工程概要
【領(lǐng)會(huì)】
特征工程的重要性
特征理解
特征改進(jìn)(數(shù)據(jù)清洗對(duì)特征的影響)
【熟知】
特征工程的涵蓋范圍
特征選擇的目的
特征建構(gòu)的方法
特征轉(zhuǎn)換的方式
特征的自動(dòng)學(xué)習(xí)
以AI促進(jìn)AI
3、特征建構(gòu)
【領(lǐng)會(huì)】
特征建構(gòu)前的準(zhǔn)備
特征的空值處理
特征的標(biāo)準(zhǔn)化
【熟知】
類別型特征的編碼
順序型特征的編碼
數(shù)值型特征的分箱
建構(gòu)多項(xiàng)式特征
建構(gòu)交互特征
特征的歸一化
【應(yīng)用】
運(yùn)用數(shù)據(jù)挖掘對(duì)特征進(jìn)行適當(dāng)?shù)慕?gòu),以作為下階段特征選擇的輸入
4、特征選擇
【熟知】
無效變量(不相關(guān)變量、多余變量)
統(tǒng)計(jì)為基礎(chǔ)的特征選擇(卡方檢驗(yàn)、ANOVA檢驗(yàn)及T檢驗(yàn))
模型為基礎(chǔ)的變量選擇(決策樹、邏輯回歸、隨機(jī)森林
高度相關(guān)特征的選擇
遞歸式的特征選擇
【應(yīng)用】
運(yùn)用數(shù)據(jù)挖掘進(jìn)行關(guān)鍵特征的選擇。同時(shí),評(píng)估不同的關(guān)鍵特征選擇方法對(duì)模型效能的影響。
5、特征轉(zhuǎn)換
【領(lǐng)會(huì)】
線性特征轉(zhuǎn)換-主成分分析(PCA
【熟知】
非線性的特征轉(zhuǎn)換-核主成分分析(Kernel PCA
類間可分性最大化的特征轉(zhuǎn)換-線性判別分析(LDA)
矩陣分解法的特征轉(zhuǎn)換-非負(fù)矩陣分解法(NMF)
對(duì)稀疏矩陣進(jìn)行特征轉(zhuǎn)換-截?cái)嗥娈愔捣纸夥ǎ═SVD
【應(yīng)用】
運(yùn)用數(shù)據(jù)挖掘進(jìn)行特征的轉(zhuǎn)換。同時(shí),評(píng)估不同的特征轉(zhuǎn)換方法對(duì)模型效能的影響。
6、特征學(xué)習(xí)
【熟知】
關(guān)聯(lián)規(guī)則為基礎(chǔ)的特征學(xué)習(xí)
神經(jīng)網(wǎng)絡(luò)為基礎(chǔ)的特征學(xué)習(xí)
深度學(xué)習(xí)為基礎(chǔ)的特征學(xué)習(xí)
詞嵌入為基礎(chǔ)的文本特征學(xué)習(xí)
【應(yīng)用】
運(yùn)用數(shù)據(jù)挖掘進(jìn)行自動(dòng)的特征學(xué)習(xí)。同時(shí),評(píng)估不同的特征學(xué)習(xí)方法對(duì)模型效能的影響。
1、自然語言處理概要
【領(lǐng)會(huì)】
BOSON的中文語意平臺(tái)
【熟知】
自然語言處理的研究范疇
分詞
詞根還原
詞性標(biāo)注
同義詞標(biāo)訂
概念標(biāo)訂
角色標(biāo)訂
【運(yùn)用】
運(yùn)用BOSON的中文語意平臺(tái)進(jìn)行語言的處理
2、分詞與詞性標(biāo)注
【領(lǐng)會(huì)】
詞性的種類及意義
【熟知】
N-Gram及詞
分詞及詞性標(biāo)注的難點(diǎn)
法則式分詞法
統(tǒng)計(jì)式分詞法
詞性標(biāo)注
【運(yùn)用】
運(yùn)用中文分詞及詞性標(biāo)注技術(shù)對(duì)多篇文章進(jìn)行分詞及詞性標(biāo)注
3、文本挖掘概要
【領(lǐng)會(huì)】
信息檢索技術(shù)之全文掃描
信息檢索技術(shù)之簽名文件
信息檢索技術(shù)之逐項(xiàng)反轉(zhuǎn)
控制字匯
關(guān)鍵詞索引
【熟知】
文本挖掘的應(yīng)用
信息檢索技術(shù)之向量空間模型
文本挖掘的處理流程
文本可視化
【應(yīng)用】
將多篇文件及查詢轉(zhuǎn)為向量格式,并計(jì)算查詢與文件間的相似度。
運(yùn)用文本可視化技術(shù)將文件內(nèi)容以文字云的方式呈現(xiàn)。
4、關(guān)鍵詞提取
【熟知】
TF、DF及IDF
詞性
關(guān)鍵詞的提取方法
【應(yīng)用】
對(duì)多篇文件及查詢中的詞,計(jì)算TF、DF、IDF及詞性并提取重要的關(guān)鍵詞。
5、文本非結(jié)構(gòu)數(shù)據(jù)轉(zhuǎn)結(jié)構(gòu)
【熟知】
詞袋模型
PCA
矩陣分解
詞嵌入模型Glove
詞嵌入模型Word2Vec(Skip-Gram & CBOW)
【應(yīng)用】
對(duì)多篇文件進(jìn)行詞嵌入模型的訓(xùn)練及使用。
將結(jié)構(gòu)化后的文件進(jìn)行文本分類、情緒分析、文本聚類及文本摘要的應(yīng)用。
1、樸素貝葉斯
【熟知】
樸素貝葉斯(獨(dú)立性假設(shè)、概率的正規(guī)化、拉普拉斯變換、空值的問題)
【應(yīng)用】
運(yùn)用數(shù)據(jù)挖掘軟件建立樸素貝葉斯模型,解讀模型結(jié)果,并評(píng)估模型效能。
2、決策樹(分類樹及回歸樹)
【領(lǐng)會(huì)】
PRISM決策規(guī)則算法
CHAID決策樹算法(CHAID的字段選擇方式)
【熟知】
ID3決策樹算法(ID3字段選擇方式、如何使用決策樹來進(jìn)行分類預(yù)測(cè)、決策樹與決策規(guī)則間的關(guān)系、ID3算法的弊端)
C4.5決策樹算法,包括C4.5的字段選擇方式、C4.5的數(shù)值型字段處理方式、C4.5的空值處理方式、C4.5的剪枝方法(預(yù)剪枝法、悲觀剪枝法)
CART決策樹算法(分類樹與回歸樹、CART分類樹的字段選擇方式、CART分類樹的剪枝方法)
CART回歸樹算法(CART回歸樹的字段選擇方式、如何利用模型樹來提升CART回歸樹的效能)
【應(yīng)用】
運(yùn)用數(shù)據(jù)挖掘軟件建立分類樹模型,解讀模型結(jié)果,并評(píng)估模型效能。
運(yùn)用數(shù)據(jù)挖掘軟件建立回歸樹模型,解讀模型結(jié)果,并評(píng)估模型效能。
3、神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)
【領(lǐng)會(huì)】
BP神經(jīng)網(wǎng)絡(luò)概述(理解神經(jīng)網(wǎng)絡(luò)的由來及發(fā)展歷程)
卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)(理解卷積神經(jīng)網(wǎng)絡(luò)CNN的由來及發(fā)展歷程)
遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Networks, RNN)(理解遞歸神經(jīng)網(wǎng)絡(luò)RNN的由來及發(fā)展歷程)
【熟知】
感知機(jī)(Perceptron)及感知機(jī)的極限
多層感知機(jī)(Multi-Layer Perceptron)
BP神經(jīng)網(wǎng)絡(luò)的架構(gòu)方式
神經(jīng)元的組成:組合函數(shù)(Combination Function)與活化函數(shù)(Activation Function)
BP神經(jīng)網(wǎng)絡(luò)如何傳遞信息
修正權(quán)重值及常數(shù)項(xiàng)
訓(xùn)練模型前的數(shù)據(jù)準(zhǔn)備(分類模型的數(shù)據(jù)準(zhǔn)備、預(yù)測(cè)模型的數(shù)據(jù)準(zhǔn)備)
BP神經(jīng)網(wǎng)絡(luò)邏輯回歸線性回歸及非線性回歸間的關(guān)系
【應(yīng)用】
運(yùn)用數(shù)據(jù)挖掘軟件建立BP神經(jīng)網(wǎng)絡(luò)模型,解讀模型結(jié)果,并評(píng)估模型效能。
4、支持向量機(jī)
【領(lǐng)會(huì)】
支持向量機(jī)概述
線性可分
最佳的線性分割超平面
決策邊界
【熟知】
支持向量
線性支持向量機(jī)
非線性轉(zhuǎn)換
核函數(shù)(Polynomial Kernel、Gaussian Radial Basis Function、Sigmoid Kernel)
非線性支持向量機(jī)
支持向量機(jī)神經(jīng)網(wǎng)絡(luò)間的關(guān)系
【應(yīng)用】
運(yùn)用數(shù)據(jù)挖掘軟件建立支持向量機(jī)模型,解讀模型結(jié)果,并評(píng)估模型效能。
5、集成方法
【領(lǐng)會(huì)】
集成方法概述
【熟知】
抽樣技術(shù)
訓(xùn)練數(shù)據(jù)上的抽樣方法
輸入變量上的抽樣方法
袋裝法(隨機(jī)森林
提升法(Adaboost、xgboost、GBDT、LightGBM
【應(yīng)用】
運(yùn)用數(shù)據(jù)挖掘軟件建立組合方法模型,解讀模型結(jié)果,并評(píng)估模型效能。
6、聚類分析
【領(lǐng)會(huì)】
聚類的概念
【熟知】
相似性的衡量(二元變量的相似性衡量、混合類別型變量與數(shù)值型變量的相似性衡量)
樣本點(diǎn)間距離的計(jì)算(Manhattan Distance、City-Block Distance、Euclidean Distance)
聚類算法(Exclusive vs. Non-Exclusive (Overlapping)的聚類算法、分層聚類法、劃分聚類法)
分層聚類算法(單一鏈結(jié)法、完全鏈結(jié)法、平均鏈結(jié)法、中心法、Ward’s 法)
劃分聚類算法(K-Means法、EM法、K-Medoids法、神經(jīng)網(wǎng)絡(luò)SOM法、兩步法)
密度聚類算法(DBSCAN)
群數(shù)的判斷(R-Squared (R2)、Semi-PARTial R-Squared、Root-Mean-Square Standard Deviation (RMSSTD)、輪廓系數(shù)(Silhouette Coefficient) )
【應(yīng)用】
運(yùn)用數(shù)據(jù)挖掘軟件建立聚類模型,解讀模型結(jié)果,并提供營銷建議。
7、關(guān)聯(lián)規(guī)則
【領(lǐng)會(huì)】
【熟知】
關(guān)聯(lián)規(guī)則的評(píng)估指標(biāo)(支持度、置信度、提升度)
Apriori算法(暴力法的弊端、Apriori算法的理論基礎(chǔ)、候選項(xiàng)目組合的產(chǎn)生、候選項(xiàng)目組合的刪除)
支持度與置信度的問題(提升度指標(biāo))
關(guān)聯(lián)規(guī)則的生成
關(guān)聯(lián)規(guī)則的延伸(虛擬商品的加入、負(fù)向關(guān)聯(lián)規(guī)則、相依性網(wǎng)絡(luò))
【應(yīng)用】
運(yùn)用數(shù)據(jù)挖掘軟件建立關(guān)聯(lián)規(guī)則模型,解讀模型結(jié)果,并提供營銷建議。
8、序列模式
【領(lǐng)會(huì)】
序列模式的概念
【熟知】
序列模式的評(píng)估指標(biāo)(支持度、置信度)
AprioriAll算法(暴力法的問題、AprioriAll算法的理論基礎(chǔ)、候選項(xiàng)目組合的產(chǎn)生、候選項(xiàng)目組合的刪除)
序列模式的延伸(狀態(tài)移轉(zhuǎn)網(wǎng)絡(luò))
【應(yīng)用】
運(yùn)用數(shù)據(jù)挖掘軟件建立序列模式模型,解讀模型結(jié)果,并提供營銷建議。
9、模型評(píng)估
【熟知】
混淆矩陣(正確率(Accuracy)、查準(zhǔn)率(Precision)、查全率(Recall)、F-指標(biāo)(F-Measure))
KS圖(KS Chart)
ROC圖(ROC Chart)
GINI圖(GINI Chart)
回應(yīng)圖(Response Chart)
增益圖(Gain Chart)
提升圖(Lift Chart)
收益圖(Profit Chart)
平均平方誤差(Average Squared Error)
【應(yīng)用】
運(yùn)用數(shù)據(jù)挖掘軟件比較不同模型間的優(yōu)劣
1、自動(dòng)機(jī)器學(xué)習(xí)
【領(lǐng)會(huì)】
自動(dòng)機(jī)器學(xué)習(xí)的基本概念
自動(dòng)機(jī)器學(xué)習(xí)平臺(tái)
【熟知】
自動(dòng)數(shù)據(jù)預(yù)處理的方法
自動(dòng)機(jī)器學(xué)習(xí)的模型建置方法
自動(dòng)模型的評(píng)估方法
【應(yīng)用】
運(yùn)用自動(dòng)機(jī)器學(xué)習(xí)技術(shù),快速建立模型,解讀模型結(jié)果,并評(píng)估模型效能。
2、類別不平衡問題
【領(lǐng)會(huì)】
不平衡數(shù)據(jù)定義
不平衡數(shù)據(jù)場(chǎng)景
傳統(tǒng)學(xué)習(xí)方法在不平衡數(shù)據(jù)中的局限性
類別不平衡所造成的問題
【熟知】
類別不平衡問題的檢測(cè)方法
過采樣技術(shù)(Over-sampling)
欠采樣技術(shù)(Under-sampling)
模型懲罰技術(shù)
【應(yīng)用】
能運(yùn)用類別不平衡的處理技術(shù),提升模型的效能
3、半監(jiān)督學(xué)習(xí)
【領(lǐng)會(huì)】
監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)半監(jiān)督學(xué)習(xí)間的關(guān)系
【熟知】
半監(jiān)督學(xué)習(xí)的基本思路
半監(jiān)督學(xué)習(xí)的基本假設(shè)
半監(jiān)督分類
半監(jiān)督回歸
半監(jiān)督聚類
半監(jiān)督降維
掌握基于SVM半監(jiān)督學(xué)習(xí)算法
基于核方法的半監(jiān)督學(xué)習(xí)算法
EM半監(jiān)督學(xué)習(xí)算法
【應(yīng)用】
能運(yùn)用半監(jiān)督學(xué)習(xí),降低開發(fā)決策模型的成本
4、模型優(yōu)化
【領(lǐng)會(huì)】
模型參數(shù)優(yōu)化的目的
建模門檻值優(yōu)化的目的
【熟知】
模型參數(shù)優(yōu)化的方法
建模門檻值優(yōu)化的方法
【應(yīng)用】
運(yùn)用模型參數(shù)優(yōu)化建立更精準(zhǔn)的數(shù)據(jù)挖掘模型
運(yùn)用建模門檻值優(yōu)化建立更精準(zhǔn)的數(shù)據(jù)挖掘模型

六、推薦學(xué)習(xí)書目

說明:推薦學(xué)習(xí)書目中,部分書籍結(jié)合軟件,考試中客觀選擇題部分不考查軟件操作使用,案例實(shí)操部分需要考生運(yùn)用相關(guān)軟件進(jìn)行建模分析,考生可根據(jù)自身需求選擇性學(xué)習(xí)。參考書目不需全部學(xué)完,根據(jù)考綱知識(shí)點(diǎn)進(jìn)行針對(duì)性學(xué)習(xí)即可。

[1] Jiawei Han, Micheline Kamber, Jian Pei.數(shù)據(jù)挖掘:概念與技術(shù)(原書第3版)[M].范明,孟小峰 譯,機(jī)械工業(yè)出版社,2012.(必讀)
[2] 周志華.機(jī)器學(xué)習(xí)[M].清華大學(xué)出版社,2016.(必讀)
[3] Chris Albon. Python機(jī)器學(xué)習(xí)手冊(cè):從數(shù)據(jù)預(yù)處理深度學(xué)習(xí).電子工業(yè)出版社,2019.(必讀)
[4] 李博.機(jī)器學(xué)習(xí)實(shí)踐應(yīng)用.人民郵電出版社,2017.(必讀)
[5] 愛麗絲·鄭,阿曼達(dá)·卡薩麗.精通特征工程.人民郵電出版社,2019.(必讀)
[6] 迪潘揚(yáng)·薩卡爾(Dipanjan Sarkar).Python文本分析[M].機(jī)械工業(yè)出版社,2018.(必讀)
[7] 經(jīng)管之家.SPSS Modeler+Weka數(shù)據(jù)挖掘從入門到實(shí)戰(zhàn),電子工業(yè)出版社,2019.(選讀)
[8] Pang-Ning Tan, Michael Steinbach, Vipin Kumar.數(shù)據(jù)挖掘導(dǎo)論(原書第2版)[M].段磊,張?zhí)鞈c 譯,機(jī)械工業(yè)出版社,2019.(選讀)
[9] 趙衛(wèi)東,董亮. Python機(jī)器學(xué)習(xí)實(shí)戰(zhàn)案例. 清華大學(xué)出版社,2019.(選讀)
[10] 約阿夫·戈?duì)柕仑惛?基于深度學(xué)習(xí)自然語言處理[M].機(jī)械工業(yè)出版社,2018.(選讀)
[11] 魯偉.深度學(xué)習(xí)筆記.北京大學(xué)出版社,2020.(選讀)
[12] 數(shù)據(jù)挖掘網(wǎng)站:KDnuggets (https://www.kdnuggets.com/)(拓展學(xué)習(xí))
[13] 數(shù)據(jù)挖掘網(wǎng)站:Kaggle (https://www.kaggle.com/)(拓展學(xué)習(xí))


登錄后下載大綱PDF

數(shù)據(jù)分析咨詢請(qǐng)掃描二維碼

若不方便掃碼,搜微信號(hào):CDAshujufenxi

數(shù)據(jù)分析師資訊
更多

OK
客服在線
立即咨詢
客服在線
立即咨詢
') } function initGt() { var handler = function (captchaObj) { captchaObj.appendTo('#captcha'); captchaObj.onReady(function () { $("#wait").hide(); }).onSuccess(function(){ $('.getcheckcode').removeClass('dis'); $('.getcheckcode').trigger('click'); }); window.captchaObj = captchaObj; }; $('#captcha').show(); $.ajax({ url: "/login/gtstart?t=" + (new Date()).getTime(), // 加隨機(jī)數(shù)防止緩存 type: "get", dataType: "json", success: function (data) { $('#text').hide(); $('#wait').show(); // 調(diào)用 initGeetest 進(jìn)行初始化 // 參數(shù)1:配置參數(shù) // 參數(shù)2:回調(diào),回調(diào)的第一個(gè)參數(shù)驗(yàn)證碼對(duì)象,之后可以使用它調(diào)用相應(yīng)的接口 initGeetest({ // 以下 4 個(gè)配置參數(shù)為必須,不能缺少 gt: data.gt, challenge: data.challenge, offline: !data.success, // 表示用戶后臺(tái)檢測(cè)極驗(yàn)服務(wù)器是否宕機(jī) new_captcha: data.new_captcha, // 用于宕機(jī)時(shí)表示是新驗(yàn)證碼的宕機(jī) product: "float", // 產(chǎn)品形式,包括:float,popup width: "280px", https: true // 更多配置參數(shù)說明請(qǐng)參見:http://docs.geetest.com/install/client/web-front/ }, handler); } }); } function codeCutdown() { if(_wait == 0){ //倒計(jì)時(shí)完成 $(".getcheckcode").removeClass('dis').html("重新獲取"); }else{ $(".getcheckcode").addClass('dis').html("重新獲取("+_wait+"s)"); _wait--; setTimeout(function () { codeCutdown(); },1000); } } function inputValidate(ele,telInput) { var oInput = ele; var inputVal = oInput.val(); var oType = ele.attr('data-type'); var oEtag = $('#etag').val(); var oErr = oInput.closest('.form_box').next('.err_txt'); var empTxt = '請(qǐng)輸入'+oInput.attr('placeholder')+'!'; var errTxt = '請(qǐng)輸入正確的'+oInput.attr('placeholder')+'!'; var pattern; if(inputVal==""){ if(!telInput){ errFun(oErr,empTxt); } return false; }else { switch (oType){ case 'login_mobile': pattern = /^1[3456789]\d{9}$/; if(inputVal.length==11) { $.ajax({ url: '/login/checkmobile', type: "post", dataType: "json", data: { mobile: inputVal, etag: oEtag, page_ur: window.location.href, page_referer: document.referrer }, success: function (data) { } }); } break; case 'login_yzm': pattern = /^\d{6}$/; break; } if(oType=='login_mobile'){ } if(!!validateFun(pattern,inputVal)){ errFun(oErr,'') if(telInput){ $('.getcheckcode').removeClass('dis'); } }else { if(!telInput) { errFun(oErr, errTxt); }else { $('.getcheckcode').addClass('dis'); } return false; } } return true; } function errFun(obj,msg) { obj.html(msg); if(msg==''){ $('.login_submit').removeClass('dis'); }else { $('.login_submit').addClass('dis'); } } function validateFun(pat,val) { return pat.test(val); }