99999久久久久久亚洲,欧美人与禽猛交狂配,高清日韩av在线影院,一个人在线高清免费观看,啦啦啦在线视频免费观看www

熱線電話:13121318867

登錄
2020-08-18 閱讀量: 889
數(shù)據(jù)分析Python統(tǒng)計(jì)

算法特征匯總

最小二乘法

(1)多元回歸中,ols 可以處理多個(gè)自變量的情況,尋求殘差平方和最小化;

(2)將數(shù)據(jù)視為矩陣,利用線性代數(shù)尋求系數(shù)最優(yōu)化,對內(nèi)存要求很高;

(3)大數(shù)據(jù)場景下,存在線性和內(nèi)存約束問題。

(4)小數(shù)據(jù)情況的常用算法;

正則化法——約束

(1)一方面尋求最小化模型誤差,另一方面可以減少模型復(fù)雜度(取 L1 絕對值),如自 變量個(gè)數(shù)很多的時(shí)候,選擇較少的重要變量來表示模型。

(2)有利于消除共線性和過擬合現(xiàn)象。

(3)高維及數(shù)據(jù)稀疏問題得以極大的緩解,但內(nèi)存問題仍然是主要的缺點(diǎn);

(4)lasso、嶺回歸和彈性網(wǎng)模型是經(jīng)常使用的機(jī)器學(xué)習(xí)模型。一般避免使用普通的線性 回歸;嶺回歸和彈性網(wǎng)模型較為常用(共線稀疏等問題),lasso 在特征選擇上側(cè)重較少的重 要變量的場景。

梯度下降法——迭代

(1)以迭代的方式,最小化模型誤差,有效處理多維問題;

(2)參數(shù)學(xué)習(xí)率 alpha 控制每次迭代的步長;

(3)大型的行和列不會(huì)寫入內(nèi)存,極大地緩解內(nèi)存壓力。

(4)擅長結(jié)合正則功能處理稀疏數(shù)據(jù)問題。

(5)機(jī)器學(xué)習(xí)算法需要面對的問題:稀疏、過擬合、大型行列的速度問題、數(shù)據(jù)質(zhì)量等 問題,往往需要梯度下降及其拓展的各種算法。

24.4183
0
關(guān)注作者
收藏
評論(0)

發(fā)表評論

暫無數(shù)據(jù)