1.學(xué)習(xí)方法不同
傳統(tǒng)神經(jīng)網(wǎng)絡(luò)采用頻率學(xué)派的觀點(diǎn),即通過(guò)最小化損失函數(shù)來(lái)優(yōu)化模型參數(shù)。而貝葉斯深度學(xué)習(xí)則基于貝葉斯理論,將模型參數(shù)視為隨機(jī)變量,通過(guò)計(jì)算后驗(yàn)概率來(lái)更新模型參數(shù)。
2.不確定性處理不同
傳統(tǒng)神經(jīng)網(wǎng)絡(luò)通常無(wú)法直接量化模型的不確定性。而貝葉斯深度學(xué)習(xí)則可以量化模型的不確定性,例如通過(guò)后驗(yàn)概率的標(biāo)準(zhǔn)差來(lái)表示預(yù)測(cè)結(jié)果的不確定性。
3.過(guò)擬合防控不同
傳統(tǒng)神經(jīng)網(wǎng)絡(luò)主要通過(guò)正則化技術(shù)(如L1、L2正則化、Dropout等)來(lái)防止過(guò)擬合。而貝葉斯深度學(xué)習(xí)則通過(guò)引入模型復(fù)雜度的先驗(yàn)知識(shí),利用貝葉斯理論的邊緣化效應(yīng)自然地實(shí)現(xiàn)了過(guò)擬合的防控。
4.預(yù)測(cè)結(jié)果解釋性不同
傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的預(yù)測(cè)結(jié)果通常難以解釋。而貝葉斯深度學(xué)習(xí)的預(yù)測(cè)結(jié)果可以給出后驗(yàn)概率分布,從而提供了預(yù)測(cè)結(jié)果的不確定性,提高了預(yù)測(cè)結(jié)果的解釋性。
5.計(jì)算復(fù)雜性不同
傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練通常需要進(jìn)行大量的反向傳播計(jì)算,而貝葉斯深度學(xué)習(xí)由于需要計(jì)算后驗(yàn)概率,其計(jì)算復(fù)雜性通常更高。
延伸閱讀
貝葉斯神經(jīng)網(wǎng)絡(luò)和MC Dropout
貝葉斯神經(jīng)網(wǎng)絡(luò)是一種具有貝葉斯屬性的神經(jīng)網(wǎng)絡(luò)。相比于傳統(tǒng)神經(jīng)網(wǎng)絡(luò),貝葉斯神經(jīng)網(wǎng)絡(luò)可以對(duì)模型的不確定性進(jìn)行量化。MC Dropout是一種簡(jiǎn)單有效的方法,可以使傳統(tǒng)神經(jīng)網(wǎng)絡(luò)具有類似貝葉斯神經(jīng)網(wǎng)絡(luò)的屬性,即可以量化預(yù)測(cè)的不確定性。這使得我們?cè)谑褂脗鹘y(tǒng)神經(jīng)網(wǎng)絡(luò)的同時(shí),還能得到模型不確定性的估計(jì)。