什么是回歸算法 @(機(jī)器學(xué)習(xí)(2)之回歸算法) 什么是回歸算法線性回歸
似然函數(shù)/對數(shù)似然函數(shù)
目標(biāo)函數(shù)/損失函數(shù)損失函數(shù)是實際值與預(yù)測值之間的關(guān)系,通過求損失函數(shù)的最小值,來確定求解的θ的值,下面式子對數(shù)似然函數(shù)得: 通過對損失函數(shù)求導(dǎo)并令其等于0,可以得到: 注:X為樣本x^(i)^的矩陣,Y為y^(i)^的矩陣,要求矩陣X^T^X是可逆的。
常用的其他損失函數(shù)
局部加權(quán)回歸-損失函數(shù)
線性回歸的過擬合Ridge回歸(嶺回歸)LASSO回歸Elasitc Net算法(彈性網(wǎng)絡(luò)算法)梯度下降算法批量梯度下降算法(BGD)隨機(jī)梯度下降算法(SGD)當(dāng)樣本量為m的時候,SGD算法中對于參數(shù)值更新m次。SGD算法的結(jié)果并不是完全收斂的,而是在收斂結(jié)果處波動的。 SGD在某些情況下(全局存在多個相對最優(yōu)解/J(θ)不是一個二次),SGD有可能跳出某些小的局部最優(yōu)解,所以不會比BGD壞。 SGD由于隨機(jī)性的存在可能導(dǎo)致最終結(jié)果比BGD的差。 SGD算法特別適合樣本數(shù)據(jù)量大的情況以及在線機(jī)器學(xué)習(xí)(Online ML)。 注意:優(yōu)先選擇SGD

小批量梯度下降法(MBGD)梯度下降法調(diào)優(yōu)策略學(xué)習(xí)率的選擇:學(xué)習(xí)率過大,表示每次迭代更新的時候變化比較大,有可能會跳過最優(yōu)解;學(xué)習(xí)率過小,表示每次迭代更新的時候變化比較小,就會導(dǎo)致迭代速度過慢,很長時間都不能結(jié)束。 算法初始參數(shù)值的選擇:初始值不同,最終獲得的最小值也有可能不同,因為梯度下降法求解的是局部最優(yōu)解,所以一般情況下,選擇多次不同初始值運(yùn)行算法,并最終返回?fù)p失函數(shù)最小情況下的結(jié)果值。 標(biāo)準(zhǔn)化:由于樣本不同特征的取值范圍不同,可能會導(dǎo)致在各個不同參數(shù)上迭代速度不同,為了減少特征取值的影響,可以將特征進(jìn)行標(biāo)準(zhǔn)化操作。
Logistic回歸Softmax回歸模型效果判斷
MSE:誤差平方和,越趨近于0表示模型越擬合訓(xùn)練數(shù)據(jù)。 RMSE:MSE的平方根,作用同MSE。 R2:取值范圍(負(fù)無窮,1],值越大表示模型越擬合訓(xùn)練數(shù)據(jù);最優(yōu)解是1;當(dāng)模型預(yù)測為隨機(jī)值的時候,有可能為負(fù);若預(yù)測值恒為樣本期望,R2為0。 TSS:總平方和TSS(Total Sum of Squares),表示樣本之間的差異情況,是偽方差的m倍。 RSS:殘差平方和RSS(Residual Sum of Squares),表示預(yù)測值和樣本值之間的差異情況,是MSE的m倍。
|