日本在线看黄a美女久草|日本动漫亚洲在线一区|日韩人妻无码免费视频|A√有码中文字幕|日韩一级片视频热久久久|一区二区三区四区精品无码在线|亚洲AV成人无码一二三app|亚洲综合图片绯色|91极品人妻在线网站|国产成人精品一区二三区四区五区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
人工智能學術 正文
發(fā)私信給AI研習社
發(fā)送

0

今日 Paper | 2019-nCoV傳播預測;行人重識別;協(xié)同時態(tài)建模;舞蹈生成等

本文作者: AI研習社 2020-02-19 15:34
導語:為了更好地服務廣大 AI 青年,AI 研習社正式推出全新「論文」版塊
今日 Paper | 2019-nCoV傳播預測;行人重識別;協(xié)同時態(tài)建模;舞蹈生成等

  目錄

  • 用綜合方法預測2019-nCoV傳播的結(jié)束 

  • 通過被動WiFi傳感和數(shù)據(jù)挖掘了解社會事件中的人群行為

  • 用于RGB-紅外行人重識別的交叉模態(tài)配對圖像生成

  • CTM:面向動作識別的協(xié)同時態(tài)建模

  • Music2Dance:使用WaveNet的音樂驅(qū)動的舞蹈生成

  用綜合方法預測2019-nCoV傳播的結(jié)束                     

論文名稱:Predictions of 2019-nCoV Transmission Ending via Comprehensive Methods

作者:Zeng Tianyu /Zhang Yunong /Li Zhenyu /Liu Xiao /Qiu Binbin

發(fā)表時間:2020/2/12

論文鏈接:https://paper.yanxishe.com/review/11431?from=leiphonecolumn_paperreview0219

推薦原因

這篇論文試圖預測新型冠狀病毒的傳播,提出了一種多模態(tài)常微分方程神經(jīng)網(wǎng)絡(Multi-Model Ordinary Differential Equation set Neural Network,MMODEs-NN)以及無模型方法,來預測疫情在中國大陸尤其是湖北省的擴散情況。與現(xiàn)有流行病學模型相比,這篇論文提出的方法可以使用常微分方程激活法來模擬傳播,而基于S形函數(shù)、高斯函數(shù)和Poisson分布的無模型方法是線性的,因而非常高效。根據(jù)數(shù)值實驗與實情,為了控制疫情擴散的特別政策在一些省取得效果,目前預測這股疫情可能在2月18日之前減速并在2020年4月之前結(jié)束。這篇論文所提的數(shù)學和人工智能方法可以對2019-nCoV的結(jié)束給出一致且合理的預測。

今日 Paper | 2019-nCoV傳播預測;行人重識別;協(xié)同時態(tài)建模;舞蹈生成等
今日 Paper | 2019-nCoV傳播預測;行人重識別;協(xié)同時態(tài)建模;舞蹈生成等
今日 Paper | 2019-nCoV傳播預測;行人重識別;協(xié)同時態(tài)建模;舞蹈生成等

  通過被動WiFi傳感和數(shù)據(jù)挖掘了解社會事件中的人群行為                     

論文名稱:Understanding Crowd Behaviors in a Social Event by Passive WiFi Sensing and Data Mining

作者:Zhou Yuren /Lau Billy Pik Lik /Koh Zann /Yuen Chau /Ng Benny Kai Kiat

發(fā)表時間:2020/2/5

論文鏈接:https://paper.yanxishe.com/review/11308?from=leiphonecolumn_paperreview0219

推薦原因

這篇論文通過WiFi傳感數(shù)據(jù)進行人群行為分析。

通過收集從移動設備發(fā)送的WiFi請求,無源WiFi感測提供了一種比人群計數(shù)器和攝像機更好的監(jiān)控人群的方法。在現(xiàn)有研究中,對收集數(shù)據(jù)的全面分析和挖掘沒有給予足夠重視。這篇論文提出一個全面的數(shù)據(jù)分析框架,以在統(tǒng)計、可視化和無監(jiān)督機器學習幫助下,全面分析收集的探測請求,以提取與大型社交事件中的人群行為相關的三種類型模式。這個分析框架首先從探測請求中提取移動設備的軌跡并進行分析,以揭示人群運動的空間模式。然后采用分層聚集聚類法來查找不同位置之間的互連。接下來應用K均值和K聚類算法分別按天數(shù)和位置提取人群的時間訪問模式。最后通過與時間結(jié)合,軌跡被轉(zhuǎn)換為時空模式,揭示了軌跡持續(xù)時間如何隨長度變化,以及人群運動的總體趨勢如何隨時間變化。這個數(shù)據(jù)分析框架通過在大型社交事件中收集的真實數(shù)據(jù)進行了驗證。

今日 Paper | 2019-nCoV傳播預測;行人重識別;協(xié)同時態(tài)建模;舞蹈生成等
今日 Paper | 2019-nCoV傳播預測;行人重識別;協(xié)同時態(tài)建模;舞蹈生成等
今日 Paper | 2019-nCoV傳播預測;行人重識別;協(xié)同時態(tài)建模;舞蹈生成等

  用于RGB-紅外行人重識別的交叉模態(tài)配對圖像生成

論文名稱:Cross-Modality Paired-Images Generation for RGB-Infrared Person Re-Identification

作者:Wang Guan-An /Yang Tianzhu Zhang. Yang /Cheng Jian /Chang Jianlong /Liang Xu /Hou Zengguang

發(fā)表時間:2020/2/10

論文鏈接:https://paper.yanxishe.com/review/11306?from=leiphonecolumn_paperreview0219

推薦原因

這篇論文要解決的是行人重識別問題。

RGB和IR圖像之間缺少對應標簽,會導致某些實例的對齊錯誤,從而限制RGB-IR Re-ID的性能。與現(xiàn)有方法不同,這篇論文提出生成跨模態(tài)配對圖像,并執(zhí)行全局集合級和細粒度實例級對齊。這種方法可以通過解開特定于模態(tài)和模態(tài)不變的特征來執(zhí)行集合級對齊。與傳統(tǒng)方法相比,所提方法可以顯式刪除特定于模態(tài)的特征,并且可以更好地減少模態(tài)變化。給定一個人的跨模態(tài)不成對圖像,所提方法可以從交換的圖像生成跨模態(tài)成對圖像,通過最小化每對圖像的距離直接執(zhí)行實例級對齊。在兩個標準基準上的大量實驗結(jié)果表明,所提模型有利于抗衡當前最佳方法,特別是在SYSU-MM01數(shù)據(jù)集上,所提模型在Rank-1和mAP方面可以實現(xiàn)9.2%和7.7%的提升。

今日 Paper | 2019-nCoV傳播預測;行人重識別;協(xié)同時態(tài)建模;舞蹈生成等
今日 Paper | 2019-nCoV傳播預測;行人重識別;協(xié)同時態(tài)建模;舞蹈生成等
今日 Paper | 2019-nCoV傳播預測;行人重識別;協(xié)同時態(tài)建模;舞蹈生成等

  CTM:面向動作識別的協(xié)同時態(tài)建模                     

論文名稱:CTM: Collaborative Temporal Modeling for Action Recognition

作者:Liu Qian /Wang Tao /Liu Jie /Guan Yang /Bu Qi /Yang Longfei

發(fā)表時間:2020/2/8

論文鏈接:https://paper.yanxishe.com/review/11182?from=leiphonecolumn_paperreview0219

推薦原因

這篇論文要解決的是動作識別問題。

與圖像識別任務不同,動作識別任務對于時間維度的要求更高。為了學習到視頻的強大特征,這篇論文提出了一個名為CTM的協(xié)同時間模型來學習時間信息。CTM作為一個單獨的時間建模模塊,包括了兩條協(xié)作路徑:一個空間感知的時間建模路徑和一個無空間感知的時間建模路徑。CTM模型可以無縫地插入許多流行的神經(jīng)網(wǎng)絡模型中以生成CTM網(wǎng)絡,可以將學習時間信息的能力帶給僅捕獲了空間信息的2D CNN骨干網(wǎng)絡中。在幾個流行的動作識別數(shù)據(jù)集上進行的實驗表明,CTM塊在2D CNN基線模型上帶來了性能提升。

今日 Paper | 2019-nCoV傳播預測;行人重識別;協(xié)同時態(tài)建模;舞蹈生成等
今日 Paper | 2019-nCoV傳播預測;行人重識別;協(xié)同時態(tài)建模;舞蹈生成等
今日 Paper | 2019-nCoV傳播預測;行人重識別;協(xié)同時態(tài)建模;舞蹈生成等

  Music2Dance:使用WaveNet的音樂驅(qū)動的舞蹈生成                     

論文名稱:Music2Dance: Music-driven Dance Generation using WaveNet

作者:Zhuang Wenlin /Wang Congyi /Xia Siyu /Chai Jinxiang /Wang Yangang

發(fā)表時間:2020/2/2

論文鏈接:https://paper.yanxishe.com/review/11181?from=leiphonecolumn_paperreview0219

推薦原因

這篇論文提出了一個名為Music2Dance的模型,用于解決全自動音樂編排的問題。

Music2Dance的主要思想是將最初為語音生成而設計的WaveNet轉(zhuǎn)變?yōu)槿梭w運動合成,首先通過考慮節(jié)奏和旋律的特征來提取音樂特征,接著將舞蹈的類型設計為網(wǎng)絡的全局條件。為了解決數(shù)據(jù)缺乏的挑戰(zhàn),這篇論文收集捕捉了專業(yè)舞者同步的音樂舞蹈對,從而建立了高質(zhì)量的音樂舞蹈對數(shù)據(jù)集。這個數(shù)據(jù)集上的實驗表明了Music2Dance的有效性。

今日 Paper | 2019-nCoV傳播預測;行人重識別;協(xié)同時態(tài)建模;舞蹈生成等
今日 Paper | 2019-nCoV傳播預測;行人重識別;協(xié)同時態(tài)建模;舞蹈生成等
今日 Paper | 2019-nCoV傳播預測;行人重識別;協(xié)同時態(tài)建模;舞蹈生成等

  論文作者團隊招募

為了更好地服務廣大 AI 青年,AI 研習社正式推出全新「論文」版塊,希望以論文作為聚合 AI 學生青年的「興趣點」,通過論文整理推薦、點評解讀、代碼復現(xiàn)。致力成為國內(nèi)外前沿研究成果學習討論和發(fā)表的聚集地,也讓優(yōu)秀科研得到更為廣泛的傳播和認可。

我們希望熱愛學術的你,可以加入我們的論文作者團隊。

加入論文作者團隊你可以獲得

    1.署著你名字的文章,將你打造成最耀眼的學術明星

    2.豐厚的稿酬

    3.AI 名企內(nèi)推、大會門票福利、獨家周邊紀念品等等等。

加入論文作者團隊你需要:

    1.將你喜歡的論文推薦給廣大的研習社社友

    2.撰寫論文解讀

如果你已經(jīng)準備好加入 AI 研習社的論文兼職作者團隊,可以添加運營小姐姐的微信,備注“論文兼職作者”

今日 Paper | 2019-nCoV傳播預測;行人重識別;協(xié)同時態(tài)建模;舞蹈生成等

雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)

相關文章:

今日 Paper | 社交媒體謠言檢測;連續(xù)手語識別;細粒度服裝相似性學習;混合圖神經(jīng)網(wǎng)絡等

今日 Paper | 旋轉(zhuǎn)不變混合圖形模型網(wǎng)絡;人體移動軌跡;行人再識別;基準成像系統(tǒng)等

今日 Paper | 從純圖像重建世界;層次遞歸網(wǎng)絡序列;注意力神經(jīng)網(wǎng)絡;命名實體識別等

今日 Paper | 梯度剪切;命名實體識別;自然語言處理;免強度函數(shù)學習等

今日 Paper | 小樣本學習;機器學習;單幅圖像去霧 ;零樣本目標檢測等

今日 Paper | 可視問答模型;神經(jīng)風格差異轉(zhuǎn)移;圖像壓縮系統(tǒng) ;K-SVD圖像去噪等

今日 Paper | 依賴性解析器;DNNs對圖像損壞;高效人臉特征學習 ;虛擬試穿統(tǒng)一框架等

今日 Paper | 模態(tài)平衡模型;組合語義分析;高表達性SQL查詢;多人姿態(tài)估計模型等

今日 Paper | 多人姿勢估計;對話框語義分析;無監(jiān)督語義分析;自然語言處理工具包等

今日 Paper | 多人線性模型;身體捕捉;會話問答;自然語言解析;神經(jīng)語義

今日 Paper | 手部和物體重建;三維人體姿態(tài)估計;圖像到圖像變換等

今日 Paper | 動態(tài)手勢識別;領域獨立無監(jiān)督學習;基于BERT的在線金融文本情感分析等

今日 Paper | 新聞推薦系統(tǒng);多路編碼;知識增強型預訓練模型等

今日 Paper | 小樣本學習;視覺情感分類;神經(jīng)架構搜索;自然圖像摳像等

今日 Paper | 蚊子叫聲數(shù)據(jù)集;提高語音識別準確率;對偶注意力推薦系統(tǒng)等

今日 Paper | 人臉數(shù)據(jù)隱私;神經(jīng)符號推理;深度學習聊天機器人等

今日 Paper | 虛擬試穿網(wǎng)絡;人群計數(shù)基準;聯(lián)邦元學習;目標檢測等

今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學習;圖像風格遷移等

今日 Paper | 隨機微分方程;流式自動語音識別;圖像分類等

今日 Paper | 高維感官空間機器人;主動人體姿態(tài)估計;深度視頻超分辨率;行人重識別等

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知

今日 Paper | 2019-nCoV傳播預測;行人重識別;協(xié)同時態(tài)建模;舞蹈生成等

分享:

編輯

聚焦數(shù)據(jù)科學,連接 AI 開發(fā)者。更多精彩內(nèi)容,請訪問:yanxishe.com
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說