更新時間:2020年09月21日15時05分 來源:傳智播客 瀏覽次數(shù):
• Variance 是由于你使用的學(xué)習(xí)算法過于復(fù)雜而產(chǎn)生的錯誤。它反映的是模型每一次輸出結(jié)果與模型輸出期望之間的誤差,即模型的穩(wěn)定性。反應(yīng)預(yù)測的波動情況。Variance 過高會導(dǎo)致算法對訓(xùn)練數(shù)據(jù)的高緯度變化過于敏感,這樣會導(dǎo)致模型過度擬合數(shù)據(jù)。從而你的模型會從訓(xùn)練集里帶來太多噪音,這會對測試數(shù)據(jù)有一定的好處。
關(guān)于Bias和Variance的圖形解釋:
Bias-Variance 的分解,本質(zhì)上是通過在基礎(chǔ)數(shù)據(jù)集中添加偏差、方差和一點由噪聲引起的不可約誤差,來分解算法上的學(xué)習(xí)誤差。從本質(zhì)上講,如果你使模型更復(fù)雜并添加更多變量,你將會失去一些 Bias 但獲得一些 Variance,這就是我們所說的權(quán)衡(tradeoff)。這也是為什么我們在建模的過程中,不希望這個模型同時擁有高的偏差和方差。
猜你喜歡:
學(xué)習(xí)人工智能AI進(jìn)階班可以在哪些公司和行業(yè)進(jìn)行工作?
下面是傳智播客公開的幾套人工智能視頻教程,如果感興趣可以下載學(xué)習(xí)。