日本在线看黄a美女久草|日本动漫亚洲在线一区|日韩人妻无码免费视频|A√有码中文字幕|日韩一级片视频热久久久|一区二区三区四区精品无码在线|亚洲AV成人无码一二三app|亚洲综合图片绯色|91极品人妻在线网站|国产成人精品一区二三区四区五区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
人工智能學術 正文
發(fā)私信給AI研習社
發(fā)送

0

一文帶你了解 CVPR 2020 上的工作,提前云參會!

本文作者: AI研習社 2020-06-12 17:29
導語:內(nèi)附有獎活動,歡迎參與!

一文帶你了解 CVPR 2020 上的工作,提前云參會!

看了2020進度:▓▓▓▓▓▓????????? 43% ??,小助是日漸焦慮,感覺太多事情沒有做了~但事實上,小助又做了好多事情,下面就以“CVPR2020”會議為例,小助給大家細細總結(jié)一下。

一:論文解讀公開課
二:1466篇論文合集下載
三:文字論文解讀
四:有獎分享

一文帶你了解 CVPR 2020 上的工作,提前云參會!

直播主題:實體機器人導航中可遷移的元技能的無監(jiān)督強化學習

主講人:李俊成

回放鏈接:http://www.mooc.ai/open/course/766

內(nèi)容介紹:視覺導航任務要求智能體能夠智能地導航到指定的目標。當前基于深度強化學習的方法往往需要大量的訓練數(shù)據(jù),而構建豐富的3D仿真環(huán)境以及提供任務相關標注是十分昂貴的。本文關注于在低資源的設定下完成視覺導航任務。本文通過提出無監(jiān)督強化學習方法來獲得具有遷移能力的子策略,使得模型能夠快速遷移到視覺導航任務。在AI2-THOR環(huán)境中,我們的方法實現(xiàn)了最佳的性能,進一步的實驗分析證明我們的方法學習到了一些具備遷移能力的元技能,從而幫助模型實現(xiàn)更好的泛化。


直播主題:PolarMask: 一階段實例分割新思路

主講人:謝恩澤

回放鏈接:http://www.mooc.ai/open/course/789

內(nèi)容介紹:實例分割是計算機視覺中一個比較基礎但是比較硬的問題,之前的方法高度依賴物體檢測的結(jié)果來做實例分割,如MaskR-CNN。實例分割如何擺脫檢測框的束縛仍然是一個沒有被很好解決的問題。

本次分享中,將主要介紹我們在這個問題的探索:PolarMask:Single Shot Instance Segmentation with Polar Representation。其中我們提出了一種一階段的實例分割方法,擺脫了檢測框的限制,其次我們的方法并不像傳統(tǒng)分割方法對圖中逐像素分類,而是通過輪廓建模的方式做實例分割。此外,我們還提出了兩種改進手段來持續(xù)提高性能。總而言之,這篇文章提出了一種新型的一階段的,基于輪廓出發(fā)的實例分割方法。


直播主題:SGAS:一種基于貪心思想的網(wǎng)絡結(jié)構搜索算法,同時支持CNN和GCN網(wǎng)絡結(jié)構搜索

主講人:李國豪

回放鏈接:http://mooc.yanxishe.com/open/course/800

內(nèi)容介紹:在一般網(wǎng)絡結(jié)構搜索的算法里常常發(fā)生搜索階段表現(xiàn)得很好的(超)網(wǎng)絡在最后進行重新訓練評估性能時表現(xiàn)得相當較差的現(xiàn)象,這種情況的發(fā)生主要是搜索算法在搜索階段沒法很好地反應模型最終評估階段的真正性能,本工作提出一種順序貪心決策的搜索算法減輕了模型性能排名不一致的問題,同時支持CNN和GCN的網(wǎng)絡結(jié)構搜索,并應用到了CNN圖像分類,GCN點云分類和GCN生物圖數(shù)據(jù)節(jié)點分類上。 


直播主題:數(shù)據(jù)與模型缺陷:不完美場景下的神經(jīng)網(wǎng)絡訓練方法

主講人:Louis(騰訊)

回放鏈接:http://mooc.yanxishe.com/open/course/797

內(nèi)容介紹:深度學習的成功得益于大量的數(shù)據(jù)和很深的網(wǎng)絡模型。然而數(shù)據(jù)和模型往往不會特別理想,比如數(shù)據(jù)里存在著很多標簽噪音或者考慮到模型的推理速度,神經(jīng)網(wǎng)絡的層數(shù)不能夠特別深。針對這些情況如何有效的訓練神經(jīng)網(wǎng)絡是深度學習領域的熱點話題。特別是對于業(yè)務場景,數(shù)據(jù)住往存在很多缺陷,讓模型能夠自適應的從缺陷數(shù)據(jù)里學習是業(yè)務成功的保障。

本次講座將細致地講解數(shù)據(jù)和模型缺陷情況下神經(jīng)網(wǎng)絡的有效訓練方法。相關技術已經(jīng)在騰訊的眾多業(yè)務場景上(行人重識別,內(nèi)容審核等)落地。 


直播主題:長尾分布下的特征學習方法介紹及最新進展

主講人:劉家倫

回放鏈接:https://mooc.yanxishe.com/open/course/809

內(nèi)容介紹:真實世界中的數(shù)據(jù)分布總是呈現(xiàn)出長尾分布模式,即少量類別(頭部類)擁有大量數(shù)據(jù),而大部分的類別(尾部類)僅有少量的樣本,導致模型訓練過程中出現(xiàn)嚴重的偏差,使得長尾分布下的特征學習格外困難。

本次分享將重點介紹 CVPR 2020上的一篇論文“Deep Representation Learning on Long-tailed Data: A Learnable Embedding Augmentation Perspective”。本文提出了“feature cloud”的概念,在模型訓練過程中,為每一個尾部數(shù)據(jù)構建“feature cloud”,就像電子云填充空曠的原子一樣,將一個真實的尾部特征表示為一簇特征,以此實現(xiàn)對尾部數(shù)據(jù)的data augmentation。方法簡潔、高效,避免了像GAN這樣復雜的操作。另外,“feature cloud”在實際的大規(guī)模呈現(xiàn)長尾分布的業(yè)務數(shù)據(jù)上取得了顯著的性能提升。

直播主題:自監(jiān)督學習在視覺場景中的研究新進展

主講人:詹曉航、李順愷

回放鏈接:https://mooc.yanxishe.com/open/course/837

內(nèi)容介紹:自監(jiān)督學習是指從數(shù)據(jù)本身產(chǎn)生某種形式的標簽并訓練神經(jīng)網(wǎng)絡,用來解決某些特定任務或者學習通用的圖像、視頻、語言的特征表達。在學術界,自監(jiān)督學習被證明可以解決光流預測、深度估計、場景遮擋等問題,不需要額外的人工標簽。另外,基于自監(jiān)督學習的無監(jiān)督表征學習近年來也獲得了飛速發(fā)展,大有超越有監(jiān)督表征學習的趨勢。

本次talk將結(jié)合兩篇CVPR 2020 Oral文章,講解自監(jiān)督學習方法在場景去遮擋、視覺里程計方面的最新成果。

一文帶你了解 CVPR 2020 上的工作,提前云參會!

本屆CVPR共收到6656篇投稿,有1470篇論文被接收,錄用率約22%,創(chuàng)下十年以來的最低記錄,被稱為“最難的一屆CVPR”。最近官方已經(jīng)發(fā)出了全部論文的下載鏈接,小助整理成了一個文件夾,方便大家一鍵下載。

下載鏈接:https://www.yanxishe.com/resourceDetail/1738

一文帶你了解 CVPR 2020 上的工作,提前云參會!

或者掃碼收藏,下載


一文帶你了解 CVPR 2020 上的工作,提前云參會!

CVPR2020論文收錄結(jié)果剛剛公布的時候,小助就和小伙伴一起聯(lián)系同學們做論文解讀的分享了,詳細的小助就不一一細說了,大家看鏈接。

01. PolarMask:將實例分割統(tǒng)一到FCN,有望在工業(yè)界大規(guī)模應用

02. RandLA-Net:大場景三維點云語義分割新框架(已開源)

03. 17篇入選CVPR 2020,騰訊優(yōu)圖 9 篇精選論文詳解

04. 化繁為簡,弱監(jiān)督目標定位領域的新SOTA - 偽監(jiān)督目標定位方法

05. 挑戰(zhàn) 11 種 GAN的圖像真?zhèn)危珼eepFake鑒別一點都不難

06. 看圖說話之隨心所欲:細粒度可控的圖像描述自動生成

07. PQ-NET:序列化的三維形狀生成網(wǎng)絡

08. 視覺-語言導航新篇章:真實場景下的遠程物體定位導航任務

09. 室內(nèi)設計師失業(yè)?針對語言描述的自動三維場景設計算法

10. 深度視覺推理2.0:組合式目標指代理解

11. 用無監(jiān)督強化學習方法來獲得遷移能力

12. 細粒度文本視頻跨模態(tài)檢索

13. IR-Net: 信息保留的二值神經(jīng)網(wǎng)絡(已開源)

14. 曠視研究院提出Circle Loss,革新深度特征學習范式

15. ACGPN: 基于圖像的虛擬換裝新思路

16. 雙邊分支網(wǎng)絡BBN:攻堅長尾分布的現(xiàn)實世界任務

17. 基于點云的3D物體檢測新框架

18. MetaFuse:用于人體姿態(tài)估計的預訓練信息融合模型

19. 針對VI-ReID的分層跨模態(tài)行人識別

20. 8比特數(shù)值也能訓練模型?商湯提出訓練加速新算法

21. 挖坑等跳,F(xiàn)ineGym,一個面向細粒度動作分析的層級化高質(zhì)量數(shù)據(jù)集

22. 神奇的自監(jiān)督場景去遮擋

23. 基于空間修剪的 NAS 算法
24. 可擴展且高效,谷歌提出目標檢測“新標桿”

25. 商湯提出 Anchor-free 目標檢測新網(wǎng)絡

26. 對抗偽裝:如何讓AI懷疑人生!

27. 一行代碼提升遷移性能

28. 利用跨模態(tài)無監(jiān)督域自適應進行三維語義分割


一文帶你了解 CVPR 2020 上的工作,提前云參會!

CVPR 2020將于6月14日正式線上開始,由于時差和網(wǎng)絡等各項原因,導致線上參會并沒有達到“分享工作”“討論工作”的目的,為了讓更多的工作讓更多的人參與討論,了解,我們現(xiàn)在誠摯邀請各位 “CVPR2020”作者同學進行分享,讓你的工作被更多所知。沒有論文的同學也可以參與哦~

發(fā)布內(nèi)容小組:https://www.yanxishe.com/meeting/44

獲獎規(guī)則:

  1. 原作者推薦自己CVPR2020論文,即可獲得AI研習社定制保溫杯一個

  2. 原作者上傳CVPR 2020論文分享視頻(給CVPR官方視頻即可),即可獲得AI研習社定制保溫杯+AI研習社定制T恤一件

  3. 原作者發(fā)布自己CVPR2020論文解讀,即可獲得AI研習社定制保溫杯+AI研習社定制背包一個

  4. 非原作者,推薦三篇CVPR2020相關論文,即可獲得研習社定制保溫杯一個

  5. 非原作者發(fā)布兩篇論文解讀,即可獲得AI研習社定制T恤一件(如果是轉(zhuǎn)載,請注明來源);若是原創(chuàng)解讀,可獲得AI研習社定制保溫杯+AI研習社定制T恤一件


注:視頻請發(fā)到郵箱huangmeiling@yanxishe.com

一文帶你了解 CVPR 2020 上的工作,提前云參會!

活動時間:2020年6月12日-6月22日

有任何問題,請聯(lián)系“AI研習社頂會小助手”微信!

一文帶你了解 CVPR 2020 上的工作,提前云參會!

添加小助手,備注【CVPR】,即可進入會議交流群

雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

一文帶你了解 CVPR 2020 上的工作,提前云參會!

分享:
相關文章

編輯

聚焦數(shù)據(jù)科學,連接 AI 開發(fā)者。更多精彩內(nèi)容,請訪問:yanxishe.com
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說