日本在线看黄a美女久草|日本动漫亚洲在线一区|日韩人妻无码免费视频|A√有码中文字幕|日韩一级片视频热久久久|一区二区三区四区精品无码在线|亚洲AV成人无码一二三app|亚洲综合图片绯色|91极品人妻在线网站|国产成人精品一区二三区四区五区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
業(yè)界 正文
發(fā)私信給木子
發(fā)送

0

勢頭直逼BAT,創(chuàng)業(yè)公司 Gowild 狗尾草兩篇論文入選AAAI

本文作者: 木子 2017-11-28 14:14 專題:AAAI 2018
導語:11月,第32屆人工智能頂級國際會議AAAI 2018論文收錄結(jié)果公布。

11月,第32屆人工智能頂級國際會議AAAI 2018論文收錄結(jié)果公布。深圳Gowild(中文:狗尾草)智能科技有限公司或獨拔頭籌,成為國內(nèi)唯一入選兩篇論文的創(chuàng)業(yè)公司,勢頭直逼BAT。

AAAI人工智能大會,是人工智能領(lǐng)域的頂級盛會,自1980年至今,已經(jīng)成功舉辦了31屆。近幾年,隨著AI研究熱潮的到來,AAAI的參會人數(shù)和論文數(shù)量也逐年攀升,其中,2017年注冊參會人數(shù)接近2000人,論文投稿量超過2500篇。

作為人工智能創(chuàng)業(yè)公司,深圳Gowild智能有限公司人工智能研究院(Gowild AI Lab)共有兩篇論文被收錄,極有可能是創(chuàng)業(yè)公司在此次AAAI-18中的最佳表現(xiàn)。兩篇論文分別是《Adversarial Learning for Chinese NER from Crowd Annotations》、《Personalized Time-Aware Tag Recommendation》,作者將在2018年2月2日-7日前往美國新奧爾良進行演講。

資料顯示,Gowild AI Lab是深圳Gowild智能科技旗下的專業(yè)AI團隊,由知識圖譜專家、長期帶隊參與國家科研項目的王昊奮博士于2013年發(fā)起成立,專注于AI前沿研究及產(chǎn)品應用落地。2017年推出Gowild AI Virtual life Engine(Gowild人工智能虛擬生命引擎,簡稱“GAVE”),成功應用于Gowild出品的holoera及公子小白系列產(chǎn)品中。另一方面,Gowild AI Lab積極啟動校企合作,與蘇州大學、華東師范大學成立聯(lián)合實驗室,建立AI智庫,推動產(chǎn)學研的良好轉(zhuǎn)化。此次兩篇論文的入選,正是校企合作豐碩成果的體現(xiàn)。

近年,中國人工智能研究在國際舞臺發(fā)揮了越來越重要的作用,甚至AAAI 2017因原定時間逢中國春節(jié),特為華人學者重定時間地點。今年來自中國的論文也取得了令人矚目的佳績,我們靜心期待明年年初在人工智能頂級舞臺上來自中國學者的表現(xiàn)。

附:核心的論文情況介紹

這兩篇論文所關(guān)注的主題,都是實現(xiàn)虛擬生命的過程中遇到的實際問題,并通過校企合作進行研究和落地。兩篇論文分別研究了命名實體識別(NER)和推薦系統(tǒng)。前者是自然語言理解(NLU)的基礎(chǔ)功能,而后者可以在產(chǎn)品上體現(xiàn)“生命感”和認知功能。由于NLU技術(shù)目前在人工智能領(lǐng)域也僅僅處于起步階段,因此,在NER方面的研究,體現(xiàn)了如何利用眾包技術(shù)進一步提升數(shù)據(jù)的質(zhì)量和算法的性能,從而增強虛擬生命的感知功能。而推薦系統(tǒng),則以場景化出發(fā),可以通過對多源異構(gòu)的知識圖譜進行融合,實現(xiàn)準確的推薦,讓用戶真實感受到“情感陪伴和關(guān)懷”,從而使得虛擬生命產(chǎn)品,從傳統(tǒng)聊天機器人的“被動交互”,進化到根據(jù)用戶興趣和喜好進行“主動交互”。

下面是對兩篇論文的簡要介紹:

1. 和蘇大的合作是基于眾包的NER《Adversarial Learning for Chinese NER from Crowd Annotations》

簡介:

訓練命名實體識別系統(tǒng)時,需要大量的人工標注語料。為了保證質(zhì)量通常雇傭?qū)<襾磉M行標注,這樣會造成代價成本高且規(guī)模難于擴大。我們采用眾包標注方法雇傭普通人員來快速低成本完成標注任務,但獲取的數(shù)據(jù)包含噪音。我們提出了利用眾包標注數(shù)據(jù)來學習對抗網(wǎng)絡模型的方法,構(gòu)建中文實體識別系統(tǒng)。受到對抗網(wǎng)絡學習的啟發(fā),我們在模型中使用了兩個雙向 LSTM 模塊,來分別學習標注員的公有信息和屬于不同標注員的私有信息。對抗學習的思想體現(xiàn)在公有塊的學習過程中,以不同標注員作為分類目標進行對抗學習。從而達到優(yōu)化公有模塊的學習質(zhì)量,使之收斂于真實數(shù)據(jù) (專家標注數(shù)據(jù))。本文的算法框架如下圖:

勢頭直逼BAT,創(chuàng)業(yè)公司 Gowild 狗尾草兩篇論文入選AAAI

其中,左邊部分是作為 baseline 算法的 CRF+LSTM,右邊部分是本文提出的模型框架。

最終構(gòu)建的中文實體識別系統(tǒng)(Crowd-NER)在真實數(shù)據(jù)上的性能比傳統(tǒng) CRF 模型高7%(F1),如下圖所示:

勢頭直逼BAT,創(chuàng)業(yè)公司 Gowild 狗尾草兩篇論文入選AAAI

2. 和華師大的合作是融合時間因素的標簽推薦方法《Personalized Time-Aware Tag Recommendation》

簡介:

標簽是用戶用來管理和查找網(wǎng)絡資源的重要工具,如何給用戶推薦合適的標簽來標注網(wǎng)絡資源也是當前的研究熱點。傳統(tǒng)的標簽推薦技術(shù)有基于張量分解的協(xié)同過濾方法 PITF,但此類模型沒有捕捉到時間對用戶打標簽行為的影響。受到考慮了時間影響的 BLL 類工作的啟發(fā),本文提出了一種融合時間因素的標簽推薦方法(Time-Aware PITF, TAPITF)。該模型在 PITF 的基礎(chǔ)上增加了時間權(quán)重和頻次權(quán)重,使用 Hawkes 過程建模了用戶傾向于使用自己最近最多使用過的標簽這一行為特征,同時也考慮了目標資源上熱門標簽的影響。在真實標簽數(shù)據(jù)集上的實驗表明我們的方法具有較好的推薦準確度和一定的新穎性。

另外,本文提出的標簽推薦模型也可以很好地輔助基于對話的音樂推薦任務。在對話系統(tǒng)中,通過對話能夠收集到用戶對于歌曲及標簽的偏好。將收集到的<用戶-歌曲-標簽-時間戳>數(shù)據(jù)使用本文提出的 TAPITF 模型分解后可以得到用戶、歌曲、標簽對應的隱向量作為其特征向量表示,用于后續(xù)的音樂推薦。

在實驗數(shù)據(jù)上,TAPITF 模型在準確度和收斂性能上均優(yōu)于其他算法,后續(xù)我們考慮使用深度學習模型 RNN 來建模時間信息以更好地提升模型的效果。

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

分享:
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說