一、正則化項(xiàng)不同
嶺回歸:嶺回歸采用L2正則化項(xiàng),將L2范數(shù)(平方和)加入損失函數(shù),使得模型的系數(shù)不會(huì)過(guò)大,有效防止過(guò)擬合。Lasso回歸:Lasso回歸采用L1正則化項(xiàng),將L1范數(shù)(絕對(duì)值和)加入損失函數(shù),使得模型的系數(shù)可以被稀疏化,即某些系數(shù)變?yōu)?,實(shí)現(xiàn)變量選擇和特征提取。二、變量選擇方式不同
嶺回歸:嶺回歸對(duì)特征的系數(shù)進(jìn)行縮減,但不會(huì)將系數(shù)縮減到完全為0,因此不會(huì)做出明確的變量選擇,所有特征都對(duì)模型有一定的貢獻(xiàn)。Lasso回歸:Lasso回歸的L1正則化項(xiàng)具有稀疏化效果,使得某些特征的系數(shù)變?yōu)?,從而實(shí)現(xiàn)了明確的變量選擇,只有非零系數(shù)對(duì)應(yīng)的特征被保留在模型中,其他特征被剔除。三、數(shù)學(xué)形式和優(yōu)化算法
嶺回歸:嶺回歸的數(shù)學(xué)形式是通過(guò)最小化帶有L2正則化項(xiàng)的損失函數(shù)來(lái)求解模型的系數(shù)。優(yōu)化算法可以采用閉式解(closed-form solution)來(lái)直接計(jì)算嶺回歸的系數(shù)。Lasso回歸:Lasso回歸的數(shù)學(xué)形式是通過(guò)最小化帶有L1正則化項(xiàng)的損失函數(shù)來(lái)求解模型的系數(shù)。優(yōu)化算法一般采用迭代算法(如坐標(biāo)下降法)來(lái)求解,因?yàn)長(zhǎng)1正則化項(xiàng)導(dǎo)致了損失函數(shù)不是凸函數(shù),無(wú)法直接求解閉式解。四、特征處理和預(yù)處
嶺回歸:嶺回歸對(duì)特征的縮放相對(duì)不敏感,一般不需要對(duì)特征進(jìn)行特定的預(yù)處理。Lasso回歸:Lasso回歸對(duì)特征的縮放非常敏感,通常需要對(duì)特征進(jìn)行標(biāo)準(zhǔn)化或歸一化處理,以確保特征在相同尺度上。五、解決共線性問(wèn)題
嶺回歸:嶺回歸在解決多重共線性問(wèn)題方面表現(xiàn)較好,通過(guò)L2正則化項(xiàng)可以穩(wěn)定模型的估計(jì),避免系數(shù)估計(jì)過(guò)大。Lasso回歸:Lasso回歸除了可以解決共線性問(wèn)題外,還具有變量選擇的能力,可以將某些不重要的特征的系數(shù)縮減為0,從而實(shí)現(xiàn)了特征選擇和模型簡(jiǎn)化。六、超參數(shù)調(diào)節(jié)
嶺回歸:嶺回歸有一個(gè)超參數(shù)α,表示正則化項(xiàng)的強(qiáng)度,需要根據(jù)交叉驗(yàn)證等方法來(lái)選擇優(yōu)異的α值。Lasso回歸:Lasso回歸有一個(gè)超參數(shù)λ,即正則化項(xiàng)的強(qiáng)度,同樣需要通過(guò)交叉驗(yàn)證等方式來(lái)選擇合適的λ值。延伸閱讀
嶺回歸簡(jiǎn)介
嶺回歸(Ridge Regression)是一種用于線性回歸問(wèn)題的正則化方法。線性回歸是一種用于預(yù)測(cè)連續(xù)輸出變量(因變量)與一個(gè)或多個(gè)輸入變量(自變量)之間關(guān)系的方法。在普通的線性回歸中,通過(guò)最小化殘差平方和來(lái)擬合數(shù)據(jù),但在面對(duì)多重共線性(多個(gè)輸入變量之間存在高度相關(guān)性)時(shí),模型可能變得不穩(wěn)定,參數(shù)估計(jì)會(huì)受到較大波動(dòng)。
嶺回歸通過(guò)引入L2范數(shù)的正則化項(xiàng)來(lái)解決多重共線性問(wèn)題。在嶺回歸中,最小化的目標(biāo)函數(shù)包括兩部分:殘差平方和和L2范數(shù)的正則化項(xiàng)。正則化項(xiàng)懲罰了模型的參數(shù),使得參數(shù)估計(jì)更穩(wěn)定,并且可以減少多重共線性引起的過(guò)擬合問(wèn)題。