日本在线看黄a美女久草|日本动漫亚洲在线一区|日韩人妻无码免费视频|A√有码中文字幕|日韩一级片视频热久久久|一区二区三区四区精品无码在线|亚洲AV成人无码一二三app|亚洲综合图片绯色|91极品人妻在线网站|国产成人精品一区二三区四区五区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能學(xué)術(shù) 正文
發(fā)私信給AI研習(xí)社
發(fā)送

0

Paper 研習(xí)社每日精選論文推薦 12.30

本文作者: AI研習(xí)社 2019-12-30 16:18
導(dǎo)語(yǔ):?Hi 歡迎來(lái)到Paper 研習(xí)社每日精選欄目,Paper 研習(xí)社(paper.yanxishe.com)每天都為你精選關(guān)于人工智能的前沿學(xué)術(shù)論文供你參考

Hi 歡迎來(lái)到Paper 研習(xí)社每日精選欄目,Paper 研習(xí)社(paper.yanxishe.com)每天都為你精選關(guān)于人工智能的前沿學(xué)術(shù)論文供你參考,以下是今日的精選內(nèi)容——

 目錄

  1. Scalable Fine-grained Generated Image Classification Based>

    Merging Weak and Active Supervision for Semantic Parsing

  2. Detecting GAN generated errors

  3. A Billion Ways to Grasp: An Evaluation of Grasp Sampling Schemes>

    Look, Read and Feel: Benchmarking Ads Understanding with Multimodal Multitask Learning

  4. Improved Mixed-Example Data Augmentation

  5. A Baseline for Few-Shot Image Classificatio

  6.  Mixup Inference: Better Exploiting Mixup to Defend Adversarial Attacks

  7. Extracting urban water by combining deep learning and Google Earth Engine

  8. Facial Synthesis from Visual Attributes via Sketch using Multi-Scale Generators

 基于深度度量學(xué)習(xí)的可擴(kuò)展細(xì)粒度生成圖像分類(lèi)

Scalable Fine-grained Generated Image Classification Based>作者:Xuan Xinsheng /Peng Bo /Wang Wei /Dong Jing

發(fā)表時(shí)間:2019/12/10

論文鏈接:https://paper.yanxishe.com/review/7899

推薦理由:最近,生成的圖像可以達(dá)到非常高的質(zhì)量,即使人眼也無(wú)法分辨真實(shí)圖像。盡管目前在法醫(yī)界已經(jīng)有一些檢測(cè)生成圖像的方法,但是這些方法大多數(shù)都用于檢測(cè)生成圖像的一種類(lèi)型。生成的新型圖像層出不窮,現(xiàn)有的檢測(cè)方法無(wú)法很好地應(yīng)對(duì)。這些問(wèn)題促使作者提出了一種基于深度度量學(xué)習(xí)的可擴(kuò)展的多類(lèi)別分類(lèi)框架,旨在對(duì)生成的圖像進(jìn)行更好的分類(lèi)。

此外,作者增加了框架的可伸縮性,以應(yīng)對(duì)不斷涌現(xiàn)的新型生成圖像,并通過(guò)微調(diào)使模型對(duì)新型生成數(shù)據(jù)獲得更好的檢測(cè)性能。

Paper 研習(xí)社每日精選論文推薦 12.30
Paper 研習(xí)社每日精選論文推薦 12.30

 合并弱監(jiān)督和主動(dòng)監(jiān)督以進(jìn)行語(yǔ)義解析

Merging Weak and Active Supervision for Semantic Parsing

作者:Ni Ansong /Yin Pengcheng /Neubig Graham

發(fā)表時(shí)間:2019/11/29

論文鏈接:https://paper.yanxishe.com/review/7900

推薦理由:語(yǔ)義解析器將來(lái)自用戶(hù)的自然語(yǔ)言命令(NL)映射到可執(zhí)行的含義表示(MR),然后在特定環(huán)境中執(zhí)行這些以獲得所需的結(jié)果。對(duì)此類(lèi)解析器的全監(jiān)督培訓(xùn)需要NL / MR對(duì),并由領(lǐng)域?qū)<疫M(jìn)行注釋?zhuān)@使得收集它們的成本很高。

但是,僅從成對(duì)的NL和預(yù)期的執(zhí)行結(jié)果中學(xué)習(xí)了弱監(jiān)督的語(yǔ)義解析器,從而使MR變得很隱蔽。雖然薄弱的監(jiān)督成本較低,但是從這些投入中學(xué)習(xí)仍然很困難。它要求解析器以非常弱的學(xué)習(xí)信號(hào)搜索較大的空間,并且很難避免以錯(cuò)誤的方式獲得正確答案的虛假M(fèi)R。這些因素導(dǎo)致在弱監(jiān)督和全監(jiān)督環(huán)境下訓(xùn)練的解析器之間的性能差距。

為了彌合這一差距,作者研究了弱監(jiān)督與主動(dòng)學(xué)習(xí)之間的交集,這使學(xué)習(xí)者可以主動(dòng)選擇示例并查詢(xún)?nèi)斯ぷ⑨屪鳛轭~外的監(jiān)督,以改進(jìn)在弱監(jiān)督下訓(xùn)練的模型。本文研究了用于選擇示例進(jìn)行查詢(xún)的各種主動(dòng)學(xué)習(xí)啟發(fā)式方法,以及針對(duì)此類(lèi)查詢(xún)的各種形式的額外監(jiān)督。作者在兩個(gè)不同的數(shù)據(jù)集上評(píng)估了其方法的有效性。WikiSQL上的實(shí)驗(yàn)表明,通過(guò)僅注釋1.8%的示例,作者將最新的弱監(jiān)督基線(xiàn)提高了6.4%,達(dá)到了79.0%的準(zhǔn)確度,與經(jīng)過(guò)訓(xùn)練的模型僅相距1.3%在充分監(jiān)督下。在WikiTableQuestions上使用人工注釋器進(jìn)行的實(shí)驗(yàn)表明,作者的方法僅使用100個(gè)活動(dòng)查詢(xún)就可以提高性能,尤其是對(duì)于從冷啟動(dòng)中學(xué)到的弱監(jiān)督解析器。

Paper 研習(xí)社每日精選論文推薦 12.30
Paper 研習(xí)社每日精選論文推薦 12.30

 檢測(cè)GAN產(chǎn)生的錯(cuò)誤

Detecting GAN generated errors

作者:Zhu Xiru /Che Fengdi /Yang Tianzi /Yu Tzuyang /Meger David /Dudek Gregory

發(fā)表時(shí)間:2019/12/2

論文鏈接:https://paper.yanxishe.com/review/7901

推薦理由:盡管最新的GAN在生成超逼真的圖像方面具有令人印象深刻的性能,但GAN鑒別器仍然難以評(píng)估單個(gè)生成樣本的質(zhì)量。這是因?yàn)樵u(píng)估所生成圖像的質(zhì)量的任務(wù)不同于確定圖像是真實(shí)的還是偽造的。生成的圖像可能很完美,除了在單個(gè)區(qū)域之外,但仍被檢測(cè)為偽造的。

相反,作者提出了一種新穎的方法來(lái)檢測(cè)生成的圖像中錯(cuò)誤的位置。通過(guò)將實(shí)際圖像與生成的圖像進(jìn)行比較,作者為每個(gè)像素計(jì)算其屬于真實(shí)分布還是生成的分布。此外,作者利用注意力來(lái)建立遠(yuǎn)程依賴(lài)模型。這允許檢測(cè)局部上合理但不是整體上的錯(cuò)誤。

為了進(jìn)行評(píng)估,作者表明,與FID和IS不同,實(shí)驗(yàn)的錯(cuò)誤檢測(cè)可以作為單個(gè)圖像的質(zhì)量指標(biāo)。作者利用改進(jìn)的Wasserstein,BigGAN和StyleGAN來(lái)顯示基于本文的指標(biāo)的排名與FID分?jǐn)?shù)有著顯著的相關(guān)性。

作者的工作為更好地了解GAN以及從GAN模型中選擇最佳樣本的能力打開(kāi)了大門(mén)。

Paper 研習(xí)社每日精選論文推薦 12.30
Paper 研習(xí)社每日精選論文推薦 12.30
Paper 研習(xí)社每日精選論文推薦 12.30
Paper 研習(xí)社每日精選論文推薦 12.30

 十億種方式:基于密集的,基于物理的抓取數(shù)據(jù)集的抓取采樣方案的評(píng)估

A Billion Ways to Grasp: An Evaluation of Grasp Sampling Schemes>作者:Eppner Clemens /Mousavian Arsalan /Fox Dieter

發(fā)表時(shí)間:2019/12/11

論文鏈接:https://paper.yanxishe.com/review/7902

推薦理由:機(jī)器人抓取通常被公式化為學(xué)習(xí)問(wèn)題。隨著物理仿真速度和質(zhì)量的提高,生成用于學(xué)習(xí)算法的大規(guī)模抓取數(shù)據(jù)集變得越來(lái)越流行。一個(gè)經(jīng)常被忽略的問(wèn)題是如何生成構(gòu)成這些數(shù)據(jù)集的掌握信息。

在本文中,作者回顧,分類(lèi)和比較了不同的抓取抽樣策略。作者的評(píng)估基于SE(3)的細(xì)粒度離散化,并使用基于物理的模擬來(lái)評(píng)估相應(yīng)的平行下頜抓握的質(zhì)量和魯棒性。具體來(lái)說(shuō),作者認(rèn)為YCB數(shù)據(jù)集中的21個(gè)對(duì)象中的每個(gè)對(duì)象都擁有超過(guò)10億個(gè)抓取。這個(gè)密集的數(shù)據(jù)集使作者可以評(píng)估現(xiàn)有的采樣方案w.r.t. 他們的偏見(jiàn)和效率。

作者的實(shí)驗(yàn)表明,一些流行的采樣方案包含很大的偏差,并且沒(méi)有涵蓋可以抓住物體的所有可能方式。

Paper 研習(xí)社每日精選論文推薦 12.30
Paper 研習(xí)社每日精選論文推薦 12.30
Paper 研習(xí)社每日精選論文推薦 12.30

 看,讀和感覺(jué):用多模態(tài)多任務(wù)學(xué)習(xí)對(duì)廣告的理解進(jìn)行基準(zhǔn)測(cè)試

Look, Read and Feel: Benchmarking Ads Understanding with Multimodal Multitask Learning

作者:Zhang Huaizheng /Luo Yong /Ai Qiming /Hou Nana /Wen Yonggang

發(fā)表時(shí)間:2019/12/21

論文鏈接:https://paper.yanxishe.com/review/7892

推薦理由:這篇論文要解決的是廣告內(nèi)容理解的問(wèn)題。

由于廣告行業(yè)的巨大市場(chǎng)和在線(xiàn)多媒體內(nèi)容(如視頻)的急劇增長(zhǎng),將廣告與多媒體內(nèi)容一起推廣的方式逐漸流行起來(lái)。然而要為提供的內(nèi)容找尋相應(yīng)的廣告將耗費(fèi)大量人力,因此一些自動(dòng)化的廣告技術(shù)發(fā)展起來(lái)。為了進(jìn)一步提升用戶(hù)體驗(yàn),理解廣告的主題與情感是必要的。這篇論文的貢獻(xiàn)在于提出了一種新的深度多模態(tài)多任務(wù)框架,來(lái)整合多個(gè)模態(tài)以獲得目標(biāo)廣告的有效主題與情感,使得理解更容易。具體而言,所提模型首先從廣告里抽取多模態(tài)信息并學(xué)習(xí)一個(gè)高層級(jí)和可比較的表示向量。廣告的可視化元素在無(wú)監(jiān)督的情況下解碼,獲得的特征隨后被帶入所提的分層多模態(tài)注意力模塊中,用以學(xué)習(xí)為了作出最終預(yù)測(cè)而在特定任務(wù)下獲得的表示向量。另外,這篇論文還設(shè)計(jì)了一個(gè)多任務(wù)損失函數(shù)來(lái)聯(lián)合訓(xùn)練主題與情感預(yù)測(cè)模型。在最新與最大規(guī)模的廣告數(shù)據(jù)集上的實(shí)驗(yàn)表明所提方法取得了最佳效果。

Paper 研習(xí)社每日精選論文推薦 12.30
Paper 研習(xí)社每日精選論文推薦 12.30

 改進(jìn)的混合示例數(shù)據(jù)增強(qiáng)

Improved Mixed-Example Data Augmentation

作者:Summers Cecilia /Dinneen Michael J.

發(fā)表時(shí)間:2018/5/29

論文鏈接:https://paper.yanxishe.com/review/7909

推薦理由:為了減少過(guò)擬合,通常會(huì)使用數(shù)據(jù)增強(qiáng)來(lái)訓(xùn)練神經(jīng)網(wǎng)絡(luò),這是通過(guò)現(xiàn)有訓(xùn)練實(shí)例的保留標(biāo)簽的變換人工生成額外訓(xùn)練數(shù)據(jù)來(lái)完成的。盡管這些類(lèi)型的轉(zhuǎn)換具有直覺(jué)上的意義,但最近的工作表明,即使是不保留標(biāo)簽的數(shù)據(jù)增強(qiáng)也很有效果,它通過(guò)實(shí)例對(duì)的線(xiàn)性組合實(shí)現(xiàn)數(shù)據(jù)擴(kuò)充。盡管它們有效,但對(duì)于這種方法為何起作用知之甚少。

在這項(xiàng)工作中,作者旨在探索這種類(lèi)型的數(shù)據(jù)增強(qiáng)的一種新的更通用的形式,以確定這種線(xiàn)性是否必要。通過(guò)考慮“混合實(shí)例數(shù)據(jù)增強(qiáng)”的更廣泛范圍,作者發(fā)現(xiàn)了實(shí)用增強(qiáng)技術(shù)的更大空間,其中包括對(duì)現(xiàn)有技術(shù)進(jìn)行改進(jìn)的方法。這種概括所帶來(lái)的好處超出了提高性能的希望,它揭示了許多混合實(shí)例數(shù)據(jù)增強(qiáng)類(lèi)型,這些類(lèi)型與先前工作中所考慮的完全不同,這提供了證據(jù)表明此類(lèi)方法有效性的理論是不完整的,并表明任何這樣的理論都必須解釋更廣泛的現(xiàn)象。

Paper 研習(xí)社每日精選論文推薦 12.30
Paper 研習(xí)社每日精選論文推薦 12.30

 小樣本圖像分類(lèi)的基準(zhǔn)

A Baseline for Few-Shot Image Classification

作者:Dhillon Guneet S. /Chaudhari Pratik /Ravichandran Avinash /Soatto Stefano

發(fā)表時(shí)間:2019/9/6

論文鏈接:https://paper.yanxishe.com/review/7912

推薦理由:對(duì)經(jīng)過(guò)標(biāo)準(zhǔn)交叉熵?fù)p失訓(xùn)練的深度網(wǎng)絡(luò)進(jìn)行微調(diào)是進(jìn)行小樣本學(xué)習(xí)的一個(gè)強(qiáng)基準(zhǔn)。如果對(duì)它們進(jìn)行傳導(dǎo)性微調(diào),它的性能將優(yōu)于標(biāo)準(zhǔn)數(shù)據(jù)集(如Mini-Imagenet,Tiered-Imagenet,CIFAR-FS和FC-100)中具有相同超參數(shù)的最新技術(shù)。

這種方法的簡(jiǎn)單性使作者能夠在Imagenet-21k數(shù)據(jù)集上演示最初的幾次學(xué)習(xí)結(jié)果。

作者發(fā)現(xiàn)使用大量的元訓(xùn)練類(lèi),即使對(duì)于大量的測(cè)試類(lèi),也能獲得極高的準(zhǔn)確率。作者不提倡他們的方法作為小樣本學(xué)習(xí)的解決方案,而只是使用結(jié)果突出顯示當(dāng)前基準(zhǔn)和小樣本學(xué)習(xí)的局限性。作者對(duì)基準(zhǔn)數(shù)據(jù)集進(jìn)行了廣泛的研究,以提出量化測(cè)試集“硬度”的指標(biāo)。此度量標(biāo)準(zhǔn)可用于以更系統(tǒng)的方式說(shuō)明小樣本學(xué)習(xí)算法的性能。

Paper 研習(xí)社每日精選論文推薦 12.30
Paper 研習(xí)社每日精選論文推薦 12.30
Paper 研習(xí)社每日精選論文推薦 12.30

 Mixup推論:更好地利用Mixup來(lái)防御對(duì)抗性攻擊

Mixup Inference: Better Exploiting Mixup to Defend Adversarial Attacks

作者:Pang Tianyu /Xu Kun /Zhu Jun

發(fā)表時(shí)間:2019/9/25

論文鏈接:https://paper.yanxishe.com/review/7913

推薦理由:人們已經(jīng)普遍認(rèn)識(shí)到,對(duì)抗性的實(shí)例可以很容易地被用來(lái)愚弄深層網(wǎng)絡(luò),而深層網(wǎng)絡(luò)的愚弄主要來(lái)源于輸入實(shí)例附近的局部非線(xiàn)性行為。

在訓(xùn)練過(guò)程中應(yīng)用mixup,可以有效地提高泛化性能和模型的魯棒性,在訓(xùn)練實(shí)例之間引入全局線(xiàn)性行為。然而,在以往的工作中,混合訓(xùn)練模型只是通過(guò)直接對(duì)輸入進(jìn)行分類(lèi),被動(dòng)地防御對(duì)抗性攻擊,而誘導(dǎo)的全局線(xiàn)性并沒(méi)有得到很好的利用。也就是說(shuō),由于對(duì)抗擾動(dòng)的局部性,通過(guò)模型預(yù)測(cè)的全局性主動(dòng)打破局部性將更為有效。

在簡(jiǎn)單幾何直覺(jué)的啟發(fā)下,作者發(fā)展了一種用于混合訓(xùn)練模型的推理原理,稱(chēng)為混合推理(MI)。MI將輸入與其他隨機(jī)干凈的樣本混合,如果輸入是對(duì)抗性的,則可以收縮并傳遞等效擾動(dòng)。

作者在CIFAR-10和CIFAR-100上的實(shí)驗(yàn)表明,MI可以進(jìn)一步提高mixup及其變形訓(xùn)練的模型的對(duì)抗魯棒性。

Paper 研習(xí)社每日精選論文推薦 12.30
Paper 研習(xí)社每日精選論文推薦 12.30
Paper 研習(xí)社每日精選論文推薦 12.30

 結(jié)合深度學(xué)習(xí)和谷歌地球引擎提取城市水系

Extracting urban water by combining deep learning and Google Earth Engine

作者:Wang Y. D. /Li Z. W. /Zeng C. /Xia G. S. /Shen H. F.

發(fā)表時(shí)間:2019/12/23

論文鏈接:https://paper.yanxishe.com/review/7895

推薦理由:這篇論文要解決的是城市水系信息提取的問(wèn)題。

城市水系對(duì)于城市生態(tài)而言至關(guān)重要。使用遠(yuǎn)程感知數(shù)據(jù)的精準(zhǔn)高效水系檢測(cè)對(duì)城市規(guī)劃與管理有著顯著作用。這篇論文提出了一種新方法來(lái)結(jié)合谷歌地球引擎和多粒度卷積神經(jīng)網(wǎng)絡(luò),通過(guò)離線(xiàn)訓(xùn)練與預(yù)測(cè)的方式,從陸地衛(wèi)星圖像中抽取城市水系信息。

這是一篇深度學(xué)習(xí)應(yīng)用于水利行業(yè)的應(yīng)用,可以啟發(fā)更多計(jì)算機(jī)技術(shù)在其他領(lǐng)域應(yīng)用的研究。

Paper 研習(xí)社每日精選論文推薦 12.30
Paper 研習(xí)社每日精選論文推薦 12.30
Paper 研習(xí)社每日精選論文推薦 12.30
Paper 研習(xí)社每日精選論文推薦 12.30

 基于多尺度生成器的基于草圖的視覺(jué)屬性人臉合成

Facial Synthesis from Visual Attributes via Sketch using Multi-Scale Generators

作者:Di Xing /Patel Vishal M.

發(fā)表時(shí)間:2019/12/17

論文鏈接:https://paper.yanxishe.com/review/7894

推薦理由:這篇論文要解決的是人臉合成的問(wèn)題。

從視覺(jué)屬性自動(dòng)合成人臉對(duì)于計(jì)算機(jī)視覺(jué)領(lǐng)域而言是個(gè)重要的任務(wù),并在法律與娛樂(lè)方面都有廣泛的落地場(chǎng)景。隨著深度生成卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展,從屬性合成人類(lèi)圖像和文本描述的研究已有不少工作。這篇論文則是將這個(gè)問(wèn)題為一個(gè)分階段學(xué)習(xí)問(wèn)題:首先基于可視化屬性合成面部草圖,然后基于合成的草圖生成面部圖像。所提框架基于兩個(gè)不同的生成對(duì)抗網(wǎng)絡(luò):1. 一個(gè)草圖生成網(wǎng)絡(luò),以從輸入屬性中合成真實(shí)的草圖;2. 一個(gè)面部生成器,從合成的草圖中合成人臉圖像。擴(kuò)展實(shí)驗(yàn)證明了所提方法的有效性。

Paper 研習(xí)社每日精選論文推薦 12.30
Paper 研習(xí)社每日精選論文推薦 12.30
Paper 研習(xí)社每日精選論文推薦 12.30
Paper 研習(xí)社每日精選論文推薦 12.30

Paper 研習(xí)社每日精選論文推薦 12.30

雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)

相關(guān)文章:

Paper 研習(xí)社每日精選論文推薦 12.27

Paper 研習(xí)社每日精選論文推薦 12.26

Paper 研習(xí)社每日精選論文推薦 12.25

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。

Paper 研習(xí)社每日精選論文推薦 12.30

分享:
相關(guān)文章

編輯

聚焦數(shù)據(jù)科學(xué),連接 AI 開(kāi)發(fā)者。更多精彩內(nèi)容,請(qǐng)?jiān)L問(wèn):yanxishe.com
當(dāng)月熱門(mén)文章
最新文章
請(qǐng)?zhí)顚?xiě)申請(qǐng)人資料
姓名
電話(huà)
郵箱
微信號(hào)
作品鏈接
個(gè)人簡(jiǎn)介
為了您的賬戶(hù)安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說(shuō)