日本在线看黄a美女久草|日本动漫亚洲在线一区|日韩人妻无码免费视频|A√有码中文字幕|日韩一级片视频热久久久|一区二区三区四区精品无码在线|亚洲AV成人无码一二三app|亚洲综合图片绯色|91极品人妻在线网站|国产成人精品一区二三区四区五区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能開(kāi)發(fā)者 正文
發(fā)私信給qqfly
發(fā)送

1

機(jī)器學(xué)習(xí)中用來(lái)防止過(guò)擬合的方法有哪些?

本文作者: qqfly 編輯:賈智龍 2017-05-16 15:48
導(dǎo)語(yǔ):給《機(jī)器視覺(jué)與應(yīng)用》課程出大作業(yè)的時(shí)候,正好涉及到這方面內(nèi)容,所以簡(jiǎn)單整理了一下(參考 Hinton 的課程)。

雷鋒網(wǎng)按:本文作者 qqfly,上海交通大學(xué)機(jī)器人所博士生,本科畢業(yè)于清華大學(xué)機(jī)械工程系,主要研究方向機(jī)器視覺(jué)與運(yùn)動(dòng)規(guī)劃,會(huì)寫(xiě)一些好玩的內(nèi)容在微信公眾號(hào):Nao(ID:qRobotics)。本文整理自知乎回答:機(jī)器學(xué)習(xí)中用來(lái)防止過(guò)擬合的方法有哪些?

給《機(jī)器視覺(jué)與應(yīng)用》課程出大作業(yè)的時(shí)候,正好涉及到這方面內(nèi)容,所以簡(jiǎn)單整理了一下(參考 Hinton 的課程)。按照之前的套路寫(xiě):

是什么

過(guò)擬合(overfitting)是指在模型參數(shù)擬合過(guò)程中的問(wèn)題,由于訓(xùn)練數(shù)據(jù)包含抽樣誤差,訓(xùn)練時(shí),復(fù)雜的模型將抽樣誤差也考慮在內(nèi),將抽樣誤差也進(jìn)行了很好的擬合。

具體表現(xiàn)就是最終模型在訓(xùn)練集上效果好;在測(cè)試集上效果差。模型泛化能力弱。

機(jī)器學(xué)習(xí)中用來(lái)防止過(guò)擬合的方法有哪些?

為什么

為什么要解決過(guò)擬合現(xiàn)象?這是因?yàn)槲覀償M合的模型一般是用來(lái)預(yù)測(cè)未知的結(jié)果(不在訓(xùn)練集內(nèi)),過(guò)擬合雖然在訓(xùn)練集上效果好,但是在實(shí)際使用時(shí)(測(cè)試集)效果差。同時(shí),在很多問(wèn)題上,我們無(wú)法窮盡所有狀態(tài),不可能將所有情況都包含在訓(xùn)練集上。所以,必須要解決過(guò)擬合問(wèn)題。

為什么在機(jī)器學(xué)習(xí)中比較常見(jiàn)?這是因?yàn)闄C(jī)器學(xué)習(xí)算法為了滿(mǎn)足盡可能復(fù)雜的任務(wù),其模型的擬合能力一般遠(yuǎn)遠(yuǎn)高于問(wèn)題復(fù)雜度,也就是說(shuō),機(jī)器學(xué)習(xí)算法有「擬合出正確規(guī)則的前提下,進(jìn)一步擬合噪聲」的能力。

而傳統(tǒng)的函數(shù)擬合問(wèn)題(如機(jī)器人系統(tǒng)辨識(shí)),一般都是通過(guò)經(jīng)驗(yàn)、物理、數(shù)學(xué)等推導(dǎo)出一個(gè)含參模型,模型復(fù)雜度確定了,只需要調(diào)整個(gè)別參數(shù)即可。模型「無(wú)多余能力」擬合噪聲。

怎么樣

既然過(guò)擬合這么討厭,我們應(yīng)該怎么防止過(guò)擬合呢?最近深度學(xué)習(xí)比較火,我就以神經(jīng)網(wǎng)絡(luò)為例吧:

機(jī)器學(xué)習(xí)中用來(lái)防止過(guò)擬合的方法有哪些?

1. 獲取更多數(shù)據(jù)

這是解決過(guò)擬合最有效的方法,只要給足夠多的數(shù)據(jù),讓模型「看見(jiàn)」盡可能多的「例外情況」,它就會(huì)不斷修正自己,從而得到更好的結(jié)果:

機(jī)器學(xué)習(xí)中用來(lái)防止過(guò)擬合的方法有哪些?

如何獲取更多數(shù)據(jù),可以有以下幾個(gè)方法:

  • 從數(shù)據(jù)源頭獲取更多數(shù)據(jù):這個(gè)是容易想到的,例如物體分類(lèi),我就再多拍幾張照片好了;但是,在很多情況下,大幅增加數(shù)據(jù)本身就不容易;另外,我們不清楚獲取多少數(shù)據(jù)才算夠;

  • 根據(jù)當(dāng)前數(shù)據(jù)集估計(jì)數(shù)據(jù)分布參數(shù),使用該分布產(chǎn)生更多數(shù)據(jù):這個(gè)一般不用,因?yàn)楣烙?jì)分布參數(shù)的過(guò)程也會(huì)代入抽樣誤差。

  • 數(shù)據(jù)增強(qiáng)(Data Augmentation):通過(guò)一定規(guī)則擴(kuò)充數(shù)據(jù)。如在物體分類(lèi)問(wèn)題里,物體在圖像中的位置、姿態(tài)、尺度,整體圖片明暗度等都不會(huì)影響分類(lèi)結(jié)果。我們就可以通過(guò)圖像平移、翻轉(zhuǎn)、縮放、切割等手段將數(shù)據(jù)庫(kù)成倍擴(kuò)充;

機(jī)器學(xué)習(xí)中用來(lái)防止過(guò)擬合的方法有哪些?

2. 使用合適的模型

前面說(shuō)了,過(guò)擬合主要是有兩個(gè)原因造成的:數(shù)據(jù)太少 + 模型太復(fù)雜。所以,我們可以通過(guò)使用合適復(fù)雜度的模型來(lái)防止過(guò)擬合問(wèn)題,讓其足夠擬合真正的規(guī)則,同時(shí)又不至于擬合太多抽樣誤差。

(PS:如果能通過(guò)物理、數(shù)學(xué)建模,確定模型復(fù)雜度,這是最好的方法,這也就是為什么深度學(xué)習(xí)這么火的現(xiàn)在,我還堅(jiān)持說(shuō)初學(xué)者要學(xué)掌握傳統(tǒng)的建模方法。)

對(duì)于神經(jīng)網(wǎng)絡(luò)而言,我們可以從以下四個(gè)方面來(lái)限制網(wǎng)絡(luò)能力

2.1 網(wǎng)絡(luò)結(jié)構(gòu) Architecture

這個(gè)很好理解,減少網(wǎng)絡(luò)的層數(shù)、神經(jīng)元個(gè)數(shù)等均可以限制網(wǎng)絡(luò)的擬合能力;

機(jī)器學(xué)習(xí)中用來(lái)防止過(guò)擬合的方法有哪些?

2.2 訓(xùn)練時(shí)間 Early stopping

對(duì)于每個(gè)神經(jīng)元而言,其激活函數(shù)在不同區(qū)間的性能是不同的:

機(jī)器學(xué)習(xí)中用來(lái)防止過(guò)擬合的方法有哪些?

當(dāng)網(wǎng)絡(luò)權(quán)值較小時(shí),神經(jīng)元的激活函數(shù)工作在線(xiàn)性區(qū),此時(shí)神經(jīng)元的擬合能力較弱(類(lèi)似線(xiàn)性神經(jīng)元)。

有了上述共識(shí)之后,我們就可以解釋為什么限制訓(xùn)練時(shí)間(early stopping)有用:因?yàn)槲覀冊(cè)诔跏蓟W(wǎng)絡(luò)的時(shí)候一般都是初始為較小的權(quán)值。訓(xùn)練時(shí)間越長(zhǎng),部分網(wǎng)絡(luò)權(quán)值可能越大。如果我們?cè)诤线m時(shí)間停止訓(xùn)練,就可以將網(wǎng)絡(luò)的能力限制在一定范圍內(nèi)。

2.3 限制權(quán)值 Weight-decay,也叫正則化(regularization)

原理同上,但是這類(lèi)方法直接將權(quán)值的大小加入到 Cost 里,在訓(xùn)練的時(shí)候限制權(quán)值變大。以 L2 regularization 為例:

機(jī)器學(xué)習(xí)中用來(lái)防止過(guò)擬合的方法有哪些?

訓(xùn)練過(guò)程需要降低整體的 Cost,這時(shí)候,一方面能降低實(shí)際輸出與樣本之間的誤差C0,也能降低權(quán)值大小。

2.4 增加噪聲 Noise

給網(wǎng)絡(luò)加噪聲也有很多方法:

2.4.1 在輸入中加噪聲:

噪聲會(huì)隨著網(wǎng)絡(luò)傳播,按照權(quán)值的平方放大,并傳播到輸出層,對(duì)誤差 Cost 產(chǎn)生影響。推導(dǎo)直接看 Hinton 的 PPT 吧:

機(jī)器學(xué)習(xí)中用來(lái)防止過(guò)擬合的方法有哪些?

在輸入中加高斯噪聲,會(huì)在輸出中生成機(jī)器學(xué)習(xí)中用來(lái)防止過(guò)擬合的方法有哪些?的干擾項(xiàng)。訓(xùn)練時(shí),減小誤差,同時(shí)也會(huì)對(duì)噪聲產(chǎn)生的干擾項(xiàng)進(jìn)行懲罰,達(dá)到減小權(quán)值的平方的目的,達(dá)到與 L2 regularization 類(lèi)似的效果(對(duì)比公式)。

2.4.2 在權(quán)值上加噪聲

在初始化網(wǎng)絡(luò)的時(shí)候,用 0 均值的高斯分布作為初始化。Alex Graves 的手寫(xiě)識(shí)別 RNN 就是用了這個(gè)方法

Graves, Alex, et al. "A novel connectionist system for unconstrained handwriting recognition." IEEE transactions on pattern analysis and machine intelligence 31.5 (2009): 855-868.

- It may work better, especially in recurrent networks (Hinton)

2.4.3 對(duì)網(wǎng)絡(luò)的響應(yīng)加噪聲

如在前向傳播過(guò)程中,讓默寫(xiě)神經(jīng)元的輸出變?yōu)?binary 或 random。顯然,這種有點(diǎn)亂來(lái)的做法會(huì)打亂網(wǎng)絡(luò)的訓(xùn)練過(guò)程,讓訓(xùn)練更慢,但據(jù) Hinton 說(shuō),在測(cè)試集上效果會(huì)有顯著提升 (But it does significantly better on the test set!)。

3. 結(jié)合多種模型

簡(jiǎn)而言之,訓(xùn)練多個(gè)模型,以每個(gè)模型的平均輸出作為結(jié)果。

從 N 個(gè)模型里隨機(jī)選擇一個(gè)作為輸出的期望誤差機(jī)器學(xué)習(xí)中用來(lái)防止過(guò)擬合的方法有哪些?,會(huì)比所有模型的平均輸出的誤差機(jī)器學(xué)習(xí)中用來(lái)防止過(guò)擬合的方法有哪些?(我不知道公式里的圓括號(hào)為什么顯示不了)

機(jī)器學(xué)習(xí)中用來(lái)防止過(guò)擬合的方法有哪些?

大概基于這個(gè)原理,就可以有很多方法了:

3.1  Bagging

簡(jiǎn)單理解,就是分段函數(shù)的概念:用不同的模型擬合不同部分的訓(xùn)練集。以隨機(jī)森林(Rand Forests)為例,就是訓(xùn)練了一堆互不關(guān)聯(lián)的決策樹(shù)。但由于訓(xùn)練神經(jīng)網(wǎng)絡(luò)本身就需要耗費(fèi)較多自由,所以一般不單獨(dú)使用神經(jīng)網(wǎng)絡(luò)做 Bagging。

3.2 Boosting

既然訓(xùn)練復(fù)雜神經(jīng)網(wǎng)絡(luò)比較慢,那我們就可以只使用簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)(層數(shù)、神經(jīng)元數(shù)限制等)。通過(guò)訓(xùn)練一系列簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò),加權(quán)平均其輸出。

機(jī)器學(xué)習(xí)中用來(lái)防止過(guò)擬合的方法有哪些?

3.3 Dropout

這是一個(gè)很高效的方法。

機(jī)器學(xué)習(xí)中用來(lái)防止過(guò)擬合的方法有哪些?

在訓(xùn)練時(shí),每次隨機(jī)(如 50% 概率)忽略隱層的某些節(jié)點(diǎn);這樣,我們相當(dāng)于隨機(jī)從 2^H 個(gè)模型中采樣選擇模型;同時(shí),由于每個(gè)網(wǎng)絡(luò)只見(jiàn)過(guò)一個(gè)訓(xùn)練數(shù)據(jù)(每次都是隨機(jī)的新網(wǎng)絡(luò)),所以類(lèi)似 bagging 的做法,這就是我為什么將它分類(lèi)到「結(jié)合多種模型」中;

此外,而不同模型之間權(quán)值共享(共同使用這 H 個(gè)神經(jīng)元的連接權(quán)值),相當(dāng)于一種權(quán)值正則方法,實(shí)際效果比 L2 regularization 更好。

4. 貝葉斯方法

這部分我還沒(méi)有想好怎么才能講得清楚,為了不誤導(dǎo)初學(xué)者,我就先空著,以后如果想清楚了再更新。當(dāng)然,這也是防止過(guò)擬合的一類(lèi)重要方法。

機(jī)器學(xué)習(xí)中用來(lái)防止過(guò)擬合的方法有哪些?

綜上:

機(jī)器學(xué)習(xí)中用來(lái)防止過(guò)擬合的方法有哪些?



“TensorFlow & 神經(jīng)網(wǎng)絡(luò)算法高級(jí)應(yīng)用班”開(kāi)課了!

最受歡迎的谷歌TensorFlow 框架,ThoughtWorks大牛教你玩轉(zhuǎn)深度學(xué)習(xí)!

課程鏈接:http://www.mooc.ai/course/82

加入AI慕課學(xué)院人工智能學(xué)習(xí)交流QQ群:624413030,與AI同行一起交流成長(zhǎng)



雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知

機(jī)器學(xué)習(xí)中用來(lái)防止過(guò)擬合的方法有哪些?

分享:
相關(guān)文章

專(zhuān)欄作者

上海交通大學(xué)機(jī)器人所博士生,本科畢業(yè)于清華大學(xué)機(jī)械工程系,主要研究方向機(jī)器視覺(jué)與運(yùn)動(dòng)規(guī)劃,個(gè)人微信公眾號(hào):Nao(ID:qRobotics)
當(dāng)月熱門(mén)文章
最新文章
請(qǐng)?zhí)顚?xiě)申請(qǐng)人資料
姓名
電話(huà)
郵箱
微信號(hào)
作品鏈接
個(gè)人簡(jiǎn)介
為了您的賬戶(hù)安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說(shuō)