日本在线看黄a美女久草|日本动漫亚洲在线一区|日韩人妻无码免费视频|A√有码中文字幕|日韩一级片视频热久久久|一区二区三区四区精品无码在线|亚洲AV成人无码一二三app|亚洲综合图片绯色|91极品人妻在线网站|国产成人精品一区二三区四区五区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能學(xué)術(shù) 正文
發(fā)私信給AI研習(xí)社
發(fā)送

0

今日 Paper | CVPR 2020 論文推薦:元轉(zhuǎn)移學(xué)習(xí);ABCNet;動(dòng)態(tài)圖像檢索;點(diǎn)云分類框架等

本文作者: AI研習(xí)社 2020-03-24 16:42
導(dǎo)語:為了更好地服務(wù)廣大 AI 青年,AI 研習(xí)社正式推出全新「論文」版塊。
今日 Paper | CVPR 2020 論文推薦:元轉(zhuǎn)移學(xué)習(xí);ABCNet;動(dòng)態(tài)圖像檢索;點(diǎn)云分類框架等

  目錄

12-in-1: 多任務(wù)視覺和語言表示學(xué)習(xí)

CVPR 2020 | 用于零樣本超分辨率的元轉(zhuǎn)移學(xué)習(xí)

CVPR 2020 | ABCNet:基于自適應(yīng)Bezier-Curve網(wǎng)絡(luò)的實(shí)時(shí)場景文本定位

CVPR 2020 | Sketch Less for More:基于細(xì)粒度草圖的動(dòng)態(tài)圖像檢索

CVPR 2020 | PointAugment:一種自動(dòng)增強(qiáng)的點(diǎn)云分類框架

  12-in-1: 多任務(wù)視覺和語言表示學(xué)習(xí)

論文名稱:12-in-1: Multi-Task Vision and Language Representation Learning

作者:Jiasen Lu

發(fā)表時(shí)間:2019/12/11

論文鏈接:https://paper.yanxishe.com/review/13547?from=leiphonecolumn_paperreview0324

推薦原因

本文研究意義:

當(dāng)下AI模型的實(shí)驗(yàn)數(shù)據(jù)集都是小而多樣的,這對于后續(xù)模型的訓(xùn)練都會造成很大的影響,在此背景下,本文介紹了一項(xiàng)新穎的數(shù)據(jù)調(diào)度方法——多任務(wù)模型,以幫助避免過度訓(xùn)練或訓(xùn)練不足。為了驗(yàn)證該方法是否可行,作者分別在12個(gè)視覺和語言數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn),結(jié)果表明,使用這種方法后,我們的單一多任務(wù)模型優(yōu)于12個(gè)單一任務(wù)模型,這一新方法也為后續(xù)的研究帶來了新潮流。

今日 Paper | CVPR 2020 論文推薦:元轉(zhuǎn)移學(xué)習(xí);ABCNet;動(dòng)態(tài)圖像檢索;點(diǎn)云分類框架等

  CVPR 2020 | 用于零樣本超分辨率的元轉(zhuǎn)移學(xué)習(xí)

論文名稱:Meta-Transfer Learning for Zero-Shot Super-Resolution

作者:Soh Jae Woong /Cho Sunwoo /Cho Nam Ik

發(fā)表時(shí)間:2020/2/27

論文鏈接:https://paper.yanxishe.com/review/12829?from=leiphonecolumn_paperreview0324

推薦原因

這篇論文被CVPR 2020接收,考慮的是零樣本超分辨率的問題。

以往的零樣本超分辨率方法需要數(shù)千次梯度更新,推理時(shí)間長。這篇論文提出用于零樣本超分辨率的元轉(zhuǎn)移學(xué)習(xí)。基于找到適合內(nèi)部學(xué)習(xí)的通用初始參數(shù),所提方法可以利用外部和內(nèi)部信息,一次梯度更新就可以產(chǎn)生相當(dāng)可觀的結(jié)果,因此能快速適應(yīng)給定的圖像條件,并且應(yīng)用于大范圍圖像。

今日 Paper | CVPR 2020 論文推薦:元轉(zhuǎn)移學(xué)習(xí);ABCNet;動(dòng)態(tài)圖像檢索;點(diǎn)云分類框架等
今日 Paper | CVPR 2020 論文推薦:元轉(zhuǎn)移學(xué)習(xí);ABCNet;動(dòng)態(tài)圖像檢索;點(diǎn)云分類框架等

  CVPR 2020 | ABCNet:基于自適應(yīng)Bezier-Curve網(wǎng)絡(luò)的實(shí)時(shí)場景文本定位

論文名稱:ABCNet: Real-time Scene Text Spotting with Adaptive Bezier-Curve Network

作者:Liu Yuliang /Chen Hao /Shen Chunhua /He Tong /Jin Lianwen /Wang Liangwei

發(fā)表時(shí)間:2020/2/24

論文鏈接:https://paper.yanxishe.com/review/12441?from=leiphonecolumn_paperreview0324

推薦原因

這篇論文被CVPR 2020接收,考慮的是場景文本檢測和識別的問題。

現(xiàn)有方法基于字符或基于分段,要么在字符標(biāo)注上成本很高,要么需要維護(hù)復(fù)雜的工作流,都不適用于實(shí)時(shí)應(yīng)用程序。這篇論文提出了自適應(yīng)貝塞爾曲線網(wǎng)絡(luò)(Adaptive Bezier-Curve Network ,ABCNet),包括三個(gè)方面的創(chuàng)新:1)首次通過參數(shù)化的貝塞爾曲線自適應(yīng)擬合任意形狀文本;2)設(shè)計(jì)新的BezierAlign層,用于提取具有任意形狀的文本樣本的準(zhǔn)確卷積特征,與以前方法相比顯著提高精度;3)與標(biāo)準(zhǔn)圖形框檢測相比,所提貝塞爾曲線檢測引入的計(jì)算開銷可忽略不計(jì),從而使該方法在效率和準(zhǔn)確性上均具優(yōu)勢。對任意形狀的基準(zhǔn)數(shù)據(jù)集Total-Text和CTW1500進(jìn)行的實(shí)驗(yàn)表明,ABCNet達(dá)到當(dāng)前最佳的準(zhǔn)確性,同時(shí)顯著提高了速度,特別是在Total-Text上,ABCNet的實(shí)時(shí)版本比當(dāng)前最佳方法快10倍以上,且在識別精度上極具競爭力。

今日 Paper | CVPR 2020 論文推薦:元轉(zhuǎn)移學(xué)習(xí);ABCNet;動(dòng)態(tài)圖像檢索;點(diǎn)云分類框架等
今日 Paper | CVPR 2020 論文推薦:元轉(zhuǎn)移學(xué)習(xí);ABCNet;動(dòng)態(tài)圖像檢索;點(diǎn)云分類框架等

  CVPR 2020 | Sketch Less for More:基于細(xì)粒度草圖的動(dòng)態(tài)圖像檢索

論文名稱:Sketch Less for More: On-the-Fly Fine-Grained Sketch Based Image Retrieval

作者:Bhunia Ayan Kumar /Yang Yongxin /Hospedales Timothy M. /Xiang Tao /Song Yi-Zhe

發(fā)表時(shí)間:2020/2/24

論文鏈接:https://paper.yanxishe.com/review/12442?from=leiphonecolumn_paperreview0324

推薦原因

這篇論文被CVPR 2020接收,考慮的是基于草圖的細(xì)粒度圖像檢索,即在給定用戶查詢草圖的情況下檢索特定照片樣本的問題。

繪制草圖花費(fèi)時(shí)間,且大多數(shù)人都難以繪制完整而忠實(shí)的草圖。為此這篇論文重新設(shè)計(jì)了檢索框架以應(yīng)對這個(gè)挑戰(zhàn),目標(biāo)是以最少筆觸數(shù)檢索到目標(biāo)照片。這篇論文還提出一種基于強(qiáng)化學(xué)習(xí)的跨模態(tài)檢索框架,一旦用戶開始繪制,便會立即開始檢索。此外,這篇論文還提出一種新的獎(jiǎng)勵(lì)方案,該方案規(guī)避了與無關(guān)的筆畫筆觸相關(guān)的問題,從而在檢索過程中為模型提供更一致的等級列表。在兩個(gè)公開可用的細(xì)粒度草圖檢索數(shù)據(jù)集上的實(shí)驗(yàn)表明,這篇論文所提方法比當(dāng)前最佳方法具有更高的早期檢索效率。

今日 Paper | CVPR 2020 論文推薦:元轉(zhuǎn)移學(xué)習(xí);ABCNet;動(dòng)態(tài)圖像檢索;點(diǎn)云分類框架等
今日 Paper | CVPR 2020 論文推薦:元轉(zhuǎn)移學(xué)習(xí);ABCNet;動(dòng)態(tài)圖像檢索;點(diǎn)云分類框架等

  CVPR 2020 | PointAugment:一種自動(dòng)增強(qiáng)的點(diǎn)云分類框架

論文名稱:PointAugment: an Auto-Augmentation Framework for Point Cloud Classification

作者:Li Ruihui /Li Xianzhi /Heng Pheng-Ann /Fu Chi-Wing

發(fā)表時(shí)間:2020/2/25

論文鏈接:https://paper.yanxishe.com/review/12686?from=leiphonecolumn_paperreview0324

推薦原因

這篇論文被CVPR 2020接收,要解決的是點(diǎn)云分類的問題。

這篇論文提出了一個(gè)名為PointAugment的點(diǎn)云分類框架,當(dāng)訓(xùn)練分類網(wǎng)絡(luò)時(shí),該框架會自動(dòng)優(yōu)化和擴(kuò)充點(diǎn)云樣本以豐富數(shù)據(jù)多樣性。與現(xiàn)有的2D圖像自動(dòng)增強(qiáng)方法不同,PointAugment具有樣本感知功能,并采用對抗學(xué)習(xí)策略來共同優(yōu)化增強(qiáng)器網(wǎng)絡(luò)和分類網(wǎng)絡(luò),學(xué)習(xí)生成最適合分類器的增強(qiáng)樣本。PointAugment根據(jù)形狀分類器和點(diǎn)位移來構(gòu)造可學(xué)習(xí)的點(diǎn)增強(qiáng)函數(shù),并根據(jù)分類器的學(xué)習(xí)進(jìn)度精心設(shè)計(jì)損失函數(shù)以采用增強(qiáng)樣本。PointAugment在改善形狀分類和檢索中的有效性和魯棒性得到了實(shí)驗(yàn)的驗(yàn)證。

今日 Paper | CVPR 2020 論文推薦:元轉(zhuǎn)移學(xué)習(xí);ABCNet;動(dòng)態(tài)圖像檢索;點(diǎn)云分類框架等
今日 Paper | CVPR 2020 論文推薦:元轉(zhuǎn)移學(xué)習(xí);ABCNet;動(dòng)態(tài)圖像檢索;點(diǎn)云分類框架等

今日 Paper | CVPR 2020 論文推薦:元轉(zhuǎn)移學(xué)習(xí);ABCNet;動(dòng)態(tài)圖像檢索;點(diǎn)云分類框架等

雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)

相關(guān)文章:

今日 Paper | CVPR 2020 論文推薦:Social-STGCNN;無偏場景圖生成;深度人臉識別;4D 關(guān)聯(lián)圖等

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知

今日 Paper | CVPR 2020 論文推薦:元轉(zhuǎn)移學(xué)習(xí);ABCNet;動(dòng)態(tài)圖像檢索;點(diǎn)云分類框架等

分享:
相關(guān)文章

編輯

聚焦數(shù)據(jù)科學(xué),連接 AI 開發(fā)者。更多精彩內(nèi)容,請?jiān)L問:yanxishe.com
當(dāng)月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個(gè)人簡介
為了您的賬戶安全,請驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說