日本在线看黄a美女久草|日本动漫亚洲在线一区|日韩人妻无码免费视频|A√有码中文字幕|日韩一级片视频热久久久|一区二区三区四区精品无码在线|亚洲AV成人无码一二三app|亚洲综合图片绯色|91极品人妻在线网站|国产成人精品一区二三区四区五区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能開(kāi)發(fā)者 正文
發(fā)私信給黃善清
發(fā)送

0

清華大學(xué)柯沛:閑聊對(duì)話中的句式控制 | AI研習(xí)社65期大講堂

本文作者: 黃善清 2018-08-27 15:50
導(dǎo)語(yǔ):日常對(duì)話中的句式可以直接反映一個(gè)人的對(duì)話目的

雷鋒網(wǎng)AI研習(xí)社按:在閑聊對(duì)話領(lǐng)域,對(duì)話策略研究是近幾年的熱門話題,實(shí)現(xiàn)對(duì)話策略需要引入一些要素,讓聊天機(jī)器人變得更加擬人化,以便能跟用戶更好地交互。來(lái)自清華大學(xué)的柯沛認(rèn)為,日常對(duì)話中的句式可以直接反映一個(gè)人的對(duì)話目的,通過(guò)引入句式控制,聊天機(jī)器人將能生成優(yōu)質(zhì)的回復(fù)——不僅句式受控,還包含了豐富的信息量。

在近日的 AI 研習(xí)社大講堂上,柯沛給我們介紹了這項(xiàng)具有開(kāi)創(chuàng)性的研究成果。

公開(kāi)課回放地址:

http://www.mooc.ai/open/course/527

分享主題:閑聊對(duì)話中的句式控制

分享提綱:

  • 從對(duì)話策略分析句式控制的緣由

  • 基于條件變分自編碼器的對(duì)話生成模型

  • 生成質(zhì)量的自動(dòng)評(píng)價(jià)和人工評(píng)測(cè)

  • 未來(lái)工作及展望

雷鋒網(wǎng)AI研習(xí)社將其分享內(nèi)容整理如下:

很高興能有機(jī)會(huì)跟大家分享我們的工作,我叫柯沛,是清華大學(xué)計(jì)算機(jī)系的在讀博士生,研究方向是自然語(yǔ)言處理,主要關(guān)注自然語(yǔ)言生成和對(duì)話系統(tǒng)。

今天分享的是我們今年發(fā)表在 ACL 上的一個(gè)工作,研究的是閑聊對(duì)話中的句式控制問(wèn)題。首先,我會(huì)從對(duì)話策略講起,跟大家談?wù)勯e聊對(duì)話主要會(huì)涉及哪些問(wèn)題,再結(jié)合句式控制的任務(wù)介紹我們所使用的模型,然后通過(guò)機(jī)器評(píng)測(cè)和人工評(píng)測(cè)說(shuō)明模型的效果,同時(shí)給出一些對(duì)話示例,最后總結(jié)我們的工作和未來(lái)的發(fā)展方向。

我們先來(lái)講一下對(duì)話策略的問(wèn)題。閑聊對(duì)話與任務(wù)型對(duì)話有本質(zhì)上的區(qū)別,閑聊對(duì)話最大的特點(diǎn)是涉獵的話題較廣泛,什么都能聊。目前閑聊對(duì)話做得比較好的產(chǎn)品是微軟小冰,只要有足夠的耐心和它聊,對(duì)話就會(huì)一直持續(xù)下去。

清華大學(xué)柯沛:閑聊對(duì)話中的句式控制 | AI研習(xí)社65期大講堂

在閑聊對(duì)話領(lǐng)域,對(duì)話策略研究是近幾年的熱門話題,實(shí)現(xiàn)對(duì)話策略需要引入一些要素,讓聊天機(jī)器人變得更加擬人化,能夠跟用戶更好地交互。比如我們實(shí)驗(yàn)室所做的一個(gè)工作:通過(guò)引入情緒因素,讓聊天機(jī)器人可以生成帶有不同情緒的回復(fù),提高用戶的聊天體驗(yàn)。我們實(shí)驗(yàn)室還試圖將人物設(shè)定賦予聊天機(jī)器人,讓聊天體驗(yàn)變得更有意思。

我們這篇文章著重要談的是句式(Sentence Function)問(wèn)題,在我們看來(lái),日常對(duì)話中的句式可以直接反映一個(gè)人的對(duì)話目的,所以我們總結(jié)出了常見(jiàn)的 3 種句式類型:

第一種類型是疑問(wèn)句,在雙方都不熟悉的情況下,如果我想認(rèn)識(shí)你,可能就會(huì)更多使用疑問(wèn)句,通過(guò)提問(wèn)來(lái)獲取更多關(guān)于你的信息。

第二種類型是祈使句,主要用于發(fā)出請(qǐng)求或者邀請(qǐng),類似的回復(fù)我們一律稱為祈使句,祈使句一般可以促進(jìn)更深層次的交互。

第三種類型是平時(shí)用得比較頻繁的陳述句,從語(yǔ)氣上來(lái)講比較平淡,主要用于陳述事實(shí)或者解釋原因。

在進(jìn)一步展開(kāi)我們文章的話題前,需要跟大家理清幾個(gè)近義詞,Sentence Function 被我們暫譯為「句式」,根據(jù) Sentence Function 可以把所有的句子劃分成多種 Sentence Type,比如我們目前考慮的 3 種 Sentence Type:疑問(wèn)句、祈使句和陳述句。然而單就疑問(wèn)句而言,其實(shí)還包含很多種細(xì)分的模式,比如一般疑問(wèn)句和特殊疑問(wèn)句,這說(shuō)明同一類型的句子中也可能存在多種不同的 Sentence Pattern。

既然我們說(shuō)句式可以反映一個(gè)人的說(shuō)話目的,那么引入句式因素,是否就能有效提高聊天機(jī)器人的交互性呢?

清華大學(xué)柯沛:閑聊對(duì)話中的句式控制 | AI研習(xí)社65期大講堂

這里我們給了一個(gè)例子,用戶說(shuō)我現(xiàn)在餓了,聊天機(jī)器人則可以根據(jù)不同的對(duì)話目的,給出不同句式類型的回復(fù)。

如果機(jī)器人想知道用戶為什么餓了,那么他會(huì)提問(wèn):你早餐吃的什么呀?

如果機(jī)器人想向用戶發(fā)出邀請(qǐng)/請(qǐng)求,就會(huì)使用祈使句:那我們一起吃晚飯吧!

當(dāng)然,機(jī)器人也可以選擇比較平穩(wěn)的回復(fù),這時(shí)會(huì)選擇陳述句:我也餓了,可你在午飯時(shí)候吃了很多。

為了賦予機(jī)器人生成不同句式的回復(fù)的能力,我們的工作在生成過(guò)程中規(guī)劃了句式控制詞話題詞以及普通詞的生成位置,以達(dá)到理想的生成效果。

清華大學(xué)柯沛:閑聊對(duì)話中的句式控制 | AI研習(xí)社65期大講堂

我們的工作涉及到可控對(duì)話生成和可控文本生成的任務(wù),也就是說(shuō)給定一個(gè)屬性值,生成的語(yǔ)言必須和這個(gè)屬性值相匹配,目前學(xué)界做的較多的是跟情緒相關(guān)的研究,比如設(shè)定一個(gè)情緒「喜歡」,聊天機(jī)器人自動(dòng)生成各種與「喜歡」屬性相匹配的對(duì)話內(nèi)容;還有一種更加粗線條的情感極性,主要分為「正向情感」和「負(fù)向情感」。另外還有一種與英語(yǔ)時(shí)態(tài)相關(guān)。還有人研究對(duì)話意圖,讓生成的對(duì)話能夠符合事先設(shè)定的對(duì)話意圖。也有人做「風(fēng)格」相關(guān)的一些研究工作,不過(guò)這方面更多集中在圖像領(lǐng)域,比如說(shuō)風(fēng)格遷移,就語(yǔ)言領(lǐng)域的研究來(lái)講,這塊還是處于比較初級(jí)的階段(比如把對(duì)話風(fēng)格統(tǒng)一調(diào)整為「男性」)。

以上這 5 類工作是近幾年比較熱門的研究方向。

回到我們的工作,我們首先會(huì)輸入用戶請(qǐng)求以及設(shè)定的句式類型,模型會(huì)生成一個(gè)回復(fù)——這個(gè)回復(fù)不僅在語(yǔ)義上要與用戶的請(qǐng)求對(duì)應(yīng),并且還要與設(shè)置的句式類別相匹配。

完成這項(xiàng)任務(wù)會(huì)面臨兩個(gè)比較大的挑戰(zhàn):第一個(gè)是涉及到對(duì)生成過(guò)程的全局控制,比如生成一個(gè)疑問(wèn)句,開(kāi)頭可能是個(gè)疑問(wèn)詞,中間還涉及到一些助動(dòng)詞,最后可能還要考慮標(biāo)點(diǎn)符號(hào)的因素;第二個(gè)挑戰(zhàn)在于如何平衡句式控制與信息量兼容性的問(wèn)題,畢竟生成結(jié)果中如果不能包含豐富的信息量,句式控制得再完美也會(huì)影響到對(duì)話體驗(yàn)。

基于條件變分自編碼器的對(duì)話生成模型

接下來(lái)我會(huì)給大家介紹我們的模型,看看我們是如何解決以上兩個(gè)挑戰(zhàn)的。

清華大學(xué)柯沛:閑聊對(duì)話中的句式控制 | AI研習(xí)社65期大講堂

左邊是對(duì)話領(lǐng)域中常見(jiàn)的「編碼-解碼」結(jié)構(gòu),該結(jié)構(gòu)一般帶有 attention,以增強(qiáng) post 和 Response 間的對(duì)齊關(guān)系,然而僅僅只有這個(gè)結(jié)構(gòu),生成的結(jié)果肯定不是我們想要的,因此我們需要增加控制組件,讓模型能夠達(dá)到控制句式的效果。

整個(gè)模型主要基于條件變分自編碼器(CVAE 模型),該模型早年更多在圖像領(lǐng)域使用,一直到最近兩年才運(yùn)用到文本與對(duì)話上來(lái),如果只是單純引入 CVAE 作為技術(shù)框架,之前提到的全局控制與信息量兼容問(wèn)題依然無(wú)法得到解決,因此我們便在原先的 CVAE 基礎(chǔ)上做了改進(jìn)。

我會(huì)從四個(gè)關(guān)鍵部件來(lái)給大家講解這個(gè)模型,分別是:傳統(tǒng)的編碼-解碼器、識(shí)別/先驗(yàn)網(wǎng)絡(luò)、判別器以及類型控制器。

傳統(tǒng)的編碼-解碼框架會(huì)先通過(guò)循環(huán)神經(jīng)網(wǎng)絡(luò)對(duì)用戶的 post 進(jìn)行編碼,得到每個(gè)位置的隱層向量,然后再將隱層向量傳給解碼器,通過(guò)逐步解碼最終生成回復(fù)。清華大學(xué)柯沛:閑聊對(duì)話中的句式控制 | AI研習(xí)社65期大講堂是編碼器每個(gè)位置的隱狀態(tài)向量; 清華大學(xué)柯沛:閑聊對(duì)話中的句式控制 | AI研習(xí)社65期大講堂是解碼器中每個(gè)位置的隱狀態(tài)向量;在我們得到解碼器中每個(gè)位置的隱狀態(tài)后,我們通過(guò)簡(jiǎn)單的映射,即線性變換加上 softmax 層,來(lái)得到每一個(gè)位置生成每一個(gè)詞的概率,然后我們?cè)購(gòu)脑~的概率分布里進(jìn)行采樣,就能得到最終的解碼結(jié)果。這個(gè)是一個(gè)非常經(jīng)典的帶有 attention 機(jī)制的編碼-解碼模型。

清華大學(xué)柯沛:閑聊對(duì)話中的句式控制 | AI研習(xí)社65期大講堂

為了讓回復(fù)的句式能夠符合我們之前的設(shè)定,我們引入了識(shí)別網(wǎng)絡(luò)和先驗(yàn)網(wǎng)絡(luò)。根據(jù)條件變分自編碼器原理,訓(xùn)練的過(guò)程中我們是知道真實(shí)回復(fù)的,所以訓(xùn)練的時(shí)候我們會(huì)利用后驗(yàn)網(wǎng)絡(luò)對(duì) Post 信息和 Response 信息進(jìn)行編碼,獲得隱變量分布的參數(shù),隱變量分布選的是高斯分布,這里我們假設(shè)協(xié)方差矩陣是對(duì)角陣,所以我們要得到的兩個(gè)參數(shù)是清華大學(xué)柯沛:閑聊對(duì)話中的句式控制 | AI研習(xí)社65期大講堂清華大學(xué)柯沛:閑聊對(duì)話中的句式控制 | AI研習(xí)社65期大講堂,那么我們可以設(shè)計(jì)一個(gè)識(shí)別網(wǎng)絡(luò),如 MLP,并通過(guò)識(shí)別網(wǎng)絡(luò)得到隱變量的高斯分布。

這個(gè)高斯分布的用處是什么呢?實(shí)際上引入隱變量的目的,是希望可以將一些跟句式相關(guān)的特征編碼到隱變量中,然后再通過(guò)隱變量來(lái)引導(dǎo) response 的生成。不過(guò)要注意的是,這個(gè)是在訓(xùn)練的過(guò)程獲得的,測(cè)試過(guò)程是看不到真實(shí)回復(fù)的,所以在測(cè)試時(shí)我們使用了不包含 response 信息的先驗(yàn)網(wǎng)絡(luò)。

這樣可能造成的一個(gè)問(wèn)題是,兩個(gè)不一樣的網(wǎng)絡(luò)會(huì)導(dǎo)致訓(xùn)練和測(cè)試之間存在隔閡。對(duì)此,我們的解決方案是通過(guò)設(shè)計(jì)一個(gè) lost function 讓兩個(gè)網(wǎng)絡(luò)的隱變量分布盡可能的接近,以保證測(cè)試的時(shí)候也能得到一個(gè)含有句式信息的隱變量分布。

清華大學(xué)柯沛:閑聊對(duì)話中的句式控制 | AI研習(xí)社65期大講堂

經(jīng)過(guò)識(shí)別/先驗(yàn)網(wǎng)絡(luò)后,我們會(huì)得到一個(gè)隱變量 z 的高斯分布,我們?cè)诟咚狗植贾胁蓸拥玫?z,那么又會(huì)面臨一個(gè)新的問(wèn)題:網(wǎng)絡(luò)的輸入是 x(post)和 y(response),也就是說(shuō) z 是提取了 post 和 response 的信息,然而這個(gè)信息可能與句式無(wú)關(guān),我們要怎么做才能讓 z 編碼到盡可能多的句式信息呢?我們的解決方案是借助判別器,判別器以 z 為輸入,最終得到一個(gè)分類結(jié)果,這個(gè)分類結(jié)果就是之前提到的三種句式(疑問(wèn)句、祈使句、陳述句)上的離散概率。

分類器以輸入時(shí)設(shè)定的句式類別為監(jiān)督,如果發(fā)現(xiàn)分類結(jié)果與人為設(shè)置的句式結(jié)果不一樣,就會(huì)產(chǎn)生一個(gè) loss,進(jìn)而督促 z 編碼更多在 Post 或者 response 中體現(xiàn)的句式信息??偟膩?lái)說(shuō),判別器主要用于輔助 z 編碼與句式相關(guān)的信息。

清華大學(xué)柯沛:閑聊對(duì)話中的句式控制 | AI研習(xí)社65期大講堂

接下來(lái)要分享的是比較重要的部分,那就是類型控制器,我們當(dāng)前每一步的生成,解碼器都會(huì)計(jì)算清華大學(xué)柯沛:閑聊對(duì)話中的句式控制 | AI研習(xí)社65期大講堂,這個(gè)清華大學(xué)柯沛:閑聊對(duì)話中的句式控制 | AI研習(xí)社65期大講堂和編碼句式信息的 z 會(huì)通過(guò)類型控制器先在詞的類型上生成一個(gè)分布,看當(dāng)前解碼位置上使用哪種類型的詞概率更高。

這里我將詞分成了三種類型:第一類是句式控制相關(guān)的詞、第二類是話題相關(guān)的詞、第三類是起句子連接作用的普通詞匯。然后我們將類別上的概率分布放進(jìn)正常的解碼過(guò)程中,這個(gè)概率分布與生成詞原本的概率分布可以做一個(gè)概率混合,最后得到每一個(gè)詞的解碼概率,通過(guò)采樣即可生成解碼結(jié)果。

這個(gè)類型控制器的實(shí)現(xiàn)也比較簡(jiǎn)單,這里用的是 MLP,輸入是把當(dāng)前的清華大學(xué)柯沛:閑聊對(duì)話中的句式控制 | AI研習(xí)社65期大講堂(輸出端語(yǔ)言模型的信息)和 z(句式控制相關(guān)的信息)兩個(gè)結(jié)合起來(lái),再過(guò)一個(gè) MLP 和 softmax,最終得到詞類別上的概率分布。

清華大學(xué)柯沛:閑聊對(duì)話中的句式控制 | AI研習(xí)社65期大講堂

我們的解碼器與一般解碼器不同的地方在于,在計(jì)算每一個(gè)詞的解碼概率時(shí),使用的是混合的計(jì)算方式——根據(jù)當(dāng)前清華大學(xué)柯沛:閑聊對(duì)話中的句式控制 | AI研習(xí)社65期大講堂的和 z 去挑選當(dāng)前用哪一類詞更恰當(dāng),然后再到每個(gè)類型里去看哪一個(gè)詞的解碼概率更高一些,以此形成概率混合。其中,每一類的算法各有不同,比如第一類句式控制相關(guān)的詞,這一類詞的在計(jì)算概率時(shí)會(huì)用到清華大學(xué)柯沛:閑聊對(duì)話中的句式控制 | AI研習(xí)社65期大講堂語(yǔ)言模型的信息、隱變量信息以及 label 信息。第二類主題詞與第三類普通詞的算法會(huì)比較類似,但詞表略有不同,是一個(gè)比較常規(guī)的清華大學(xué)柯沛:閑聊對(duì)話中的句式控制 | AI研習(xí)社65期大講堂的投影過(guò)程。我們最終將三個(gè)詞表的結(jié)果用概率混合進(jìn)行計(jì)算,就能得到我們解碼出每一個(gè)詞的概率了,至此,我們的解碼工作也就完成了。

最后我們?cè)賮?lái)回顧一下整個(gè)模型,這個(gè)模型會(huì)產(chǎn)生 loss 的地方主要有三點(diǎn):第一點(diǎn)是最終生成的 response 與給定的 response 之間的交叉熵;然后在對(duì) z 做分類時(shí),判斷當(dāng)前類別與我們?cè)O(shè)定的類別是否一樣,中間也會(huì)存在一個(gè) Loss;第三個(gè)點(diǎn)是為了拉近識(shí)別網(wǎng)絡(luò)與先驗(yàn)網(wǎng)絡(luò)產(chǎn)生的分布距離,我們?cè)O(shè)置了一個(gè) KL 項(xiàng),在這過(guò)程也會(huì)產(chǎn)生 loss。

三者我們做了聯(lián)合優(yōu)化,最終得出一個(gè)總的 loss,再通過(guò)梯度下降等方法去訓(xùn)練來(lái)得到我們最終的模型參數(shù)。

評(píng)測(cè)結(jié)果

我們工作的另外一項(xiàng)貢獻(xiàn),是構(gòu)建了一個(gè)帶句式標(biāo)簽的中文數(shù)據(jù)集,這個(gè)數(shù)據(jù)在學(xué)界是比較少的。

清華大學(xué)柯沛:閑聊對(duì)話中的句式控制 | AI研習(xí)社65期大講堂

數(shù)據(jù)集里大概有 196 萬(wàn)的 post,response 和 post 在數(shù)量上對(duì)等,不過(guò)帶了相應(yīng)的句式標(biāo)簽,最后我們還保留了 6000 個(gè) post 作為 test set。

如果不考慮話題因素,目前已有其他模型也在試圖做同樣的事情,如 c-seq2seq、MA 以及 KgCVAE 模型等,我們將他們作為基線模型,從生成回復(fù)的語(yǔ)法性、多樣性、準(zhǔn)確性三個(gè)方面進(jìn)行對(duì)比,結(jié)果顯示,除了語(yǔ)法性以外,多樣性和準(zhǔn)確性方面我們的模型都取得了比較出眾的效果。

涉獵對(duì)話領(lǐng)域的同學(xué)可能都知道,自動(dòng)指標(biāo)有時(shí)候是不靠譜的,這時(shí)候我們需要借助一些人工評(píng)價(jià),我們這里采取的是一對(duì)一比較式評(píng)價(jià),我們給標(biāo)注者一個(gè)用戶請(qǐng)求以及對(duì)應(yīng)的模型生成結(jié)果,讓他們從我們的模型更好、基線模型更好、以及平局三者之間做出選擇——為了公平起見(jiàn),標(biāo)注過(guò)程我們會(huì)對(duì)模型的名稱進(jìn)行保密。

我們比較的指標(biāo)主要有三個(gè):語(yǔ)法性、合適性、信息量,從結(jié)果來(lái)看,只要結(jié)果顯示超過(guò) 0.5,就表示我們的模型在該項(xiàng)目的表現(xiàn)要比其他模型更好,我們還會(huì)做顯著性的測(cè)試,結(jié)果中我們可以看到除了疑問(wèn)句(相對(duì)而言句式較簡(jiǎn)單),其他方面都是我們的模型表現(xiàn)得更顯著,尤其是在信息量上,這也是我們文章所要解決的挑戰(zhàn),使得回復(fù)既包含豐富的信息量,又在句式上是可控的。

清華大學(xué)柯沛:閑聊對(duì)話中的句式控制 | AI研習(xí)社65期大講堂

為了分析這些回復(fù)究竟有什么樣的規(guī)律,我們統(tǒng)計(jì)了高頻詞和常見(jiàn)的模式,主要是通過(guò)頻繁模式挖掘的算法來(lái)分析的。疑問(wèn)句中較突出的是疑問(wèn)詞,頻繁出現(xiàn)的模式既包含一般疑問(wèn)句,還包含特殊疑問(wèn)句,如果模型確實(shí)能夠?qū)⑦@些模式靈活運(yùn)用到回復(fù)上的話,我們即可獲得優(yōu)質(zhì)的生成結(jié)果。祈使句和陳述句同理。

值得一提的是,陳述句的頻繁模式與高頻詞相對(duì)疑問(wèn)句和祈使句而言沒(méi)有那么顯著,因?yàn)殛愂鼍涓嗟氖寝D(zhuǎn)折和并列,但我們的模型有能力利用這些模式生成多樣的回復(fù)。

清華大學(xué)柯沛:閑聊對(duì)話中的句式控制 | AI研習(xí)社65期大講堂

接下來(lái)我用更加直觀的生成例子來(lái)做講解。

這個(gè)例子里,post 是「如果有一天我跟你絕交,你會(huì)怎樣?」在我們的模型生成的回復(fù)里,紅色部分是從句式控制相關(guān)的詞表里生成的;藍(lán)色則是從話題詞詞表里生成的;而剩余的黑色部分則是從一般詞匯詞表中生成。這也意味著,如果要生成一個(gè)好的回復(fù),我們需要將這三種不同類型的詞進(jìn)行合理的規(guī)劃,這樣在面對(duì)不同句式類型的生成要求時(shí),才能夠生成比較優(yōu)質(zhì)的回復(fù)——不僅能夠控制句式,還能夠包含豐富的信息量。

要是我們要求模型生成多個(gè)疑問(wèn)句回復(fù)會(huì)怎樣?我們的模型可以通過(guò)采樣多個(gè)隱變量 z 來(lái)達(dá)成目標(biāo)。如圖所示,目前的生成結(jié)果中,既有一般疑問(wèn)句的問(wèn)法,也有特殊疑問(wèn)句的問(wèn)法。這說(shuō)明,我們的模型能夠做到的不僅僅是區(qū)分 3 種句式類別,通過(guò)引入隱變量還能夠?qū)W習(xí)到句式內(nèi)部的多樣性。

結(jié)論

總結(jié)一下,在單輪對(duì)話里通過(guò)生成不同句式的回復(fù)來(lái)實(shí)現(xiàn)對(duì)話目的,這一點(diǎn)我們的模型已經(jīng)做得比較好了。在初步具備控制能力的情況下,下一步我們需要做感知,即知道用戶表現(xiàn)出什么樣的狀態(tài),這樣我們才能決定我們使用的句式、對(duì)話目的與策略,從而在多輪對(duì)話里生成較高質(zhì)量的回復(fù)。目前我們的工作只做到了第一步,第二步相對(duì)來(lái)說(shuō)比較有難度,因?yàn)樯婕暗降氖怯脩粜袨榈奶綔y(cè)和感知。這個(gè)可以看做是我們工作未來(lái)發(fā)展的一個(gè)方向。

另外,在語(yǔ)義和結(jié)構(gòu)方面,我們的工作目前只是通過(guò)類別控制器去做規(guī)劃性的工作,比如回復(fù)里哪個(gè)地方該用哪種類別的詞。實(shí)際上我們還可以做語(yǔ)義和結(jié)構(gòu)的解耦,以保證在同一個(gè)結(jié)構(gòu)下表現(xiàn)不同語(yǔ)義時(shí)結(jié)構(gòu)能夠不發(fā)生變化,這也是我們工作未來(lái)的一個(gè)發(fā)展方向。

清華大學(xué)柯沛:閑聊對(duì)話中的句式控制 | AI研習(xí)社65期大講堂

最后給大家展示的是可控對(duì)話近兩年的一些研究成果,它們都是在解決同一個(gè)問(wèn)題:怎樣控制回復(fù)的某種屬性。如果大家對(duì)這些話題感興趣的話,都可以考慮看看這些最新的論文。我今天的分享就到這里,謝謝大家。

以上就是本期嘉賓的全部分享內(nèi)容。更多公開(kāi)課視頻請(qǐng)到雷鋒網(wǎng)AI研習(xí)社社區(qū)(https://club.leiphone.com/)觀看。關(guān)注微信公眾號(hào):AI 研習(xí)社(okweiwu),可獲取最新公開(kāi)課直播時(shí)間預(yù)告。

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。

清華大學(xué)柯沛:閑聊對(duì)話中的句式控制 | AI研習(xí)社65期大講堂

分享:
相關(guān)文章
當(dāng)月熱門文章
最新文章
請(qǐng)?zhí)顚懮暾?qǐng)人資料
姓名
電話
郵箱
微信號(hào)
作品鏈接
個(gè)人簡(jiǎn)介
為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說(shuō)