2021-03-09
閱讀量:
543
乳腺癌數(shù)據(jù)集探索knn最優(yōu)k值示例
問:
乳腺癌數(shù)據(jù)集探索knn最優(yōu)k值示例
答:
超參數(shù) 的選定是 NN的頭號問題 ,K值較?,則模型復(fù)雜度較?,容易發(fā)?過擬合,學(xué)習(xí)的估計誤差會增?,預(yù)測結(jié)果對近鄰的實例點?常敏感。K值較?可以減少學(xué)習(xí)的估計誤差,但是學(xué)習(xí)的近似誤差會增?,與輸?實例較遠的訓(xùn)練實例也會對預(yù)測起作?,使預(yù)測發(fā)?錯誤, k值增?模型的復(fù)雜度會下降。
在這?我們要使?機器學(xué)習(xí)中的神器: 參數(shù)學(xué)習(xí)曲線。參數(shù)學(xué)習(xí)曲線
是?條以不同的參數(shù)取值為橫坐標,不同參數(shù)取值下的模型結(jié)果為縱坐標的曲線,我們往往選擇模型表
現(xiàn)最佳點的參數(shù)取值作為這個參數(shù)的取值。?如我們的乳腺癌數(shù)據(jù)集:
import matplotlib.pyplot as plt
score = []
krange = range(1,20) # 為什么這?是從1開始?
for i in krange:
clf = KNeighborsClassifier(n_neighbors=i)
clf = clf.fit(Xtrain,Ytrain)
score.append(clf.score(Xtest,Ytest))
plt.plot(krange,score);
bestindex = krange[score.index(max(score))]-1
print(bestindex)
print(score[bestindex])
?這樣的?式我們就找出了最佳的 值——這體現(xiàn)了機器學(xué)習(xí)當中,?切以 "模型效果" 為導(dǎo)向的性
質(zhì),我們可以使?模型效果來幫助我們選擇參數(shù)。






評論(0)


暫無數(shù)據(jù)
推薦帖子
0條評論
0條評論
0條評論