日本在线看黄a美女久草|日本动漫亚洲在线一区|日韩人妻无码免费视频|A√有码中文字幕|日韩一级片视频热久久久|一区二区三区四区精品无码在线|亚洲AV成人无码一二三app|亚洲综合图片绯色|91极品人妻在线网站|国产成人精品一区二三区四区五区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能開發(fā)者 正文
發(fā)私信給汪思穎
發(fā)送

0

谷歌發(fā)布TensorFlow Lattice:得益于先驗知識,提升模型泛化能力

本文作者: 汪思穎 編輯:郭奕欣 2017-10-12 15:05
導(dǎo)語:得益于先驗知識,提升模型泛化能力

雷鋒網(wǎng) AI科技評論消息,近日,谷歌科學(xué)家發(fā)布TensorFlow Lattice,這是一套預(yù)建的TensorFlow Estimators,易于使用,它相當(dāng)于是TensorFlow運(yùn)算符,用來構(gòu)建點(diǎn)陣模型(lattice model)。點(diǎn)陣是多維插值查找表(look-up table),與幾何教材背面近似于正弦函數(shù)的查找表類似。

雷鋒網(wǎng) AI科技評論編譯整理如下:

我們利用查找表的結(jié)構(gòu)(它可以通過多個輸入進(jìn)行鍵控),來估計比較隨意及靈活的關(guān)系,并滿足于指定的單調(diào)關(guān)系,以便更好地泛化。也就是說,訓(xùn)練查找表值使得訓(xùn)練樣例的損失最小化。另外,查找表中的相鄰值被約束為在輸入空間的給定方向上增長,因此模型的輸出值也是在這些方向上增長。重要的是,因為是在查找表值之間進(jìn)行插入,所以點(diǎn)陣模型很平滑,預(yù)測也是有界的,這有助于避免測試階段出現(xiàn)有較大偏差的雜散預(yù)測。

點(diǎn)陣模型的作用

設(shè)想一下,你正在設(shè)計一個向用戶推薦附近咖啡店的系統(tǒng),你需要讓模型學(xué)習(xí):“如果兩家咖啡店是一樣的,那就選擇更近一點(diǎn)的?!?br/>

下圖中我們展示了一個靈活的模型(粉色曲線),它可以精確地與來自東京用戶的訓(xùn)練數(shù)據(jù)(紫色圓點(diǎn))相匹配,在用戶附近有很多咖啡店。

由于訓(xùn)練樣例比較嘈雜,可以看到粉色曲線模型產(chǎn)生了過擬合,并且模型還忽略了總的趨勢——越近的咖啡店越好。如果用這條粉色曲線模型排列來自德克薩斯州(藍(lán)色)的測試樣本,在德克薩斯州咖啡店的分布更加分散,你會發(fā)現(xiàn)模型的表現(xiàn)變得很奇怪,有時甚至?xí)J(rèn)為更遠(yuǎn)的咖啡店更好!

谷歌發(fā)布TensorFlow Lattice:得益于先驗知識,提升模型泛化能力

谷歌發(fā)布TensorFlow Lattice:得益于先驗知識,提升模型泛化能力

對比起來,運(yùn)用東京相同的樣本訓(xùn)練的點(diǎn)陣模型能被約束為滿足單調(diào)關(guān)系,最終得到一個靈活的單調(diào)函數(shù)(綠色曲線)。這個函數(shù)能與東京的訓(xùn)練樣例精準(zhǔn)匹配,但是也能泛化到德克薩斯州的樣例上,不會出現(xiàn)更遠(yuǎn)的咖啡店更好的情況。

一般說來,輸入會有每個咖啡店的咖啡質(zhì)量、價格等等。靈活模型很難捕捉到這種形式的整體關(guān)系,特別是在一些特征空間中,訓(xùn)練數(shù)據(jù)非常稀疏和雜亂?!叭绻渌休斎胝嫉臋?quán)重一樣,那么更近就更好?!蹦懿蹲降较闰炛R(例如輸入是怎么對預(yù)測值產(chǎn)生影響的)的機(jī)器學(xué)習(xí)模型在實際中取得的效果更好,更易于調(diào)試并更具有解釋性。

預(yù)建 Estimators

我們提供一系列點(diǎn)陣模型架構(gòu)作為TensorFlow Estimators。我們提供的最簡單的estimator是校準(zhǔn)線性模型(calibrated linear model),它能利用1-d點(diǎn)陣,學(xué)習(xí)到每個特征的最佳1-d轉(zhuǎn)化,然后線性地將所有校準(zhǔn)特征結(jié)合起來。如果訓(xùn)練數(shù)據(jù)集很小或沒有復(fù)雜的非線性輸入交互,模型將非常有效。

另外一個estimator是校準(zhǔn)點(diǎn)陣模型(calibrated lattice model),這個模型能利用兩層單一點(diǎn)陣模型非線性地將校準(zhǔn)特征結(jié)合起來,能在數(shù)據(jù)集中表示復(fù)雜的非線性交互。如果有2-10個特征,那么校準(zhǔn)點(diǎn)陣模型會是很好的選擇,但對于10個或10個以上的特征,我們認(rèn)為利用一組校準(zhǔn)點(diǎn)陣將會得到最佳結(jié)果,這時候你能利用預(yù)建的一組架構(gòu)來進(jìn)行訓(xùn)練。比起隨機(jī)森林,單調(diào)點(diǎn)陣集合(Monotonic lattice ensembles)能增加0.3% -- 0.5%的準(zhǔn)確度。另外,比起之前頂尖的單調(diào)性學(xué)習(xí)模型,這些新的TensorFlow點(diǎn)陣estimator 能增加0.1% -- 0.4%的準(zhǔn)確度。

動手建立模型

你或許想要用更深的點(diǎn)陣網(wǎng)絡(luò)進(jìn)行實驗,或者利用部分單調(diào)函數(shù)(作為深度神經(jīng)網(wǎng)絡(luò)或其他TensorFlow架構(gòu)的一部分)來進(jìn)行研究。我們提供構(gòu)件:TensorFlow校準(zhǔn)運(yùn)算符、點(diǎn)陣插入和單調(diào)性投影(monotonicity projections)。下圖是一個9層深度點(diǎn)陣網(wǎng)絡(luò):

谷歌發(fā)布TensorFlow Lattice:得益于先驗知識,提升模型泛化能力

在TensorFlow Lattice中,除了模型的靈活選擇以及標(biāo)準(zhǔn)的L1、L2正則化,我們還提供新的正則化矩陣:

  • 如上面描述的那樣,在輸入上進(jìn)行單調(diào)性約束。

  • 在點(diǎn)陣上進(jìn)行拉普拉斯正則化,以便讓學(xué)習(xí)到的函數(shù)更平滑。

  • 對扭曲進(jìn)行正則化(Torsion regularization),來抑止不必要的非線性特征交互。

大家可以在如下地址看到詳細(xì)信息并開始進(jìn)行實驗:

GitHub地址:https://github.com/tensorflow/lattice

tutorials地址:https://github.com/tensorflow/lattice/blob/master/g3doc/tutorial/index.md

參考文獻(xiàn):

[1] Lattice Regression, Eric Garcia, Maya Gupta, Advances in Neural Information Processing Systems (NIPS), 2009

[2] Optimized Regression for Efficient Function Evaluation, Eric Garcia, Raman Arora, Maya R. Gupta, IEEE Transactions on Image Processing, 2012

[3] Monotonic Calibrated Interpolated Look-Up Tables, Maya Gupta, Andrew Cotter, Jan Pfeifer, Konstantin Voevodski, Kevin Canini, Alexander Mangylov, Wojciech Moczydlowski, Alexander van Esbroeck, Journal of Machine Learning Research (JMLR), 2016

[4] Fast and Flexible Monotonic Functions with Ensembles of Lattices, Mahdi Milani Fard, Kevin Canini, Andrew Cotter, Jan Pfeifer, Maya Gupta, Advances in Neural Information Processing Systems (NIPS), 2016

[5] Deep Lattice Networks and Partial Monotonic Functions, Seungil You, David Ding, Kevin Canini, Jan Pfeifer, Maya R. Gupta, Advances in Neural Information Processing Systems (NIPS), 2017

via:Google Research Blog

雷鋒網(wǎng) AI科技評論編譯整理。

雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

谷歌發(fā)布TensorFlow Lattice:得益于先驗知識,提升模型泛化能力

分享:
相關(guān)文章

編輯

關(guān)注AI學(xué)術(shù),例如論文
當(dāng)月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說