日本在线看黄a美女久草|日本动漫亚洲在线一区|日韩人妻无码免费视频|A√有码中文字幕|日韩一级片视频热久久久|一区二区三区四区精品无码在线|亚洲AV成人无码一二三app|亚洲综合图片绯色|91极品人妻在线网站|国产成人精品一区二三区四区五区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能學術(shù) 正文
發(fā)私信給MrBear
發(fā)送

0

谷歌再獲語音識別新進展:利用序列轉(zhuǎn)導(dǎo)來實現(xiàn)多人語音識別和說話人分類

本文作者: MrBear 編輯:幸麗娟 2019-08-26 09:38
導(dǎo)語:準確識別「誰在何時都說了些啥?」

雷鋒網(wǎng) AI 科技評論按:從 WaveNet 到 Tacotron,再到 RNN-T,谷歌一直站在語音人工智能技術(shù)的最前沿。近日,他們又將多人語音識別和說話人分類問題融合在了同一個網(wǎng)絡(luò)模型中,在模型性能上取得了重大的突破。

對于自動理解人類音頻的任務(wù)來說,識別「誰說了什么」(或稱「說話人分類」)是一個關(guān)鍵的步驟。例如,在一段醫(yī)生和患者的對話中,醫(yī)生問:「你按時服用心臟病藥物了嗎?」患回答道:「Yes」。這與醫(yī)生反問患者「Yes?」的意義是有本質(zhì)區(qū)別的。

傳統(tǒng)的說話人分類(speaker diarization,SD)系統(tǒng)有兩個步驟。在第一步中,系統(tǒng)將檢測聲譜中的變化,從而確定在一段對話中,說話人什么時候改變了;在第二步中,系統(tǒng)將識別出整段對話中的各個說話人。這種基礎(chǔ)的多步方法(相關(guān)閱讀:https://ieeexplore.ieee.org/document/1202280/)幾乎已經(jīng)被使用了 20 多年,而在么長的時間內(nèi),研究者們僅僅在「說話人變化檢測」部分提升了模型性能。

近年來,隨著一種名為遞歸神經(jīng)網(wǎng)絡(luò)變換器(RNN-T,https://arxiv.org/abs/1211.3711)的新型神經(jīng)網(wǎng)絡(luò)模型的發(fā)展,我們現(xiàn)在擁有了一種合適的架構(gòu),它可以克服之前我們介紹過的說話人分類系統(tǒng)(https://ai.googleblog.com/2018/11/accurate-online-speaker-diarization.html)的局限性,提升系統(tǒng)的性能。在谷歌最近發(fā)布的論文「Joint Speech Recognition and Speaker Diarization via Sequence Transduction」(論文地址:https://arxiv.org/abs/1907.05337)中,它們提出了一種基于 RNN-T 的說話人分類系統(tǒng),證明了該系統(tǒng)在單詞分類誤差率從 20 % 降低到了 2%(性能提升了 10 倍),該工作將在 Interspeech 2019 上展示。

傳統(tǒng)的說話人分類系統(tǒng)

傳統(tǒng)的說話人分類系統(tǒng)依賴于人聲的聲學差異識別出對話中不同的說話人。根據(jù)男人和女人的音高,僅僅使用簡單的聲學模型(例如,混合高斯模型),就可以在一步中相對容易地將他們區(qū)分開來。然而,想要區(qū)分處音高可能相近的說話者,說話者分類系統(tǒng)就需要使用多步方法了。首先,基于檢測到的人聲特征,使用一個變化檢測算法將對話切分成均勻的片段,我們希望每段僅僅包含一個說話人。接著,使用一個深度學習模型將上述說話人的聲音片段映射到一個嵌入向量上。最后,在聚類階段,會對上述嵌入聚類在不同的簇中,追蹤對話中的同一個說話人。

在真實場景下,說話人分類系統(tǒng)與聲學語音識別(ASR)系統(tǒng)會并行化運行,這兩個系統(tǒng)的輸出將會被結(jié)合,從而為識別出的單詞分配標簽。

 

谷歌再獲語音識別新進展:利用序列轉(zhuǎn)導(dǎo)來實現(xiàn)多人語音識別和說話人分類

傳統(tǒng)的說話人分類系統(tǒng)在聲學域中進行推斷,然后將說話人標簽覆蓋在由獨立的 ASR 系統(tǒng)生成的單詞上。

這種方法存在很多不足,阻礙了該領(lǐng)域的發(fā)展:

(1)我們需要將對話切分成僅僅包含以為說話人的語音的片段。否則,根據(jù)這些片段生成的嵌入就不能準確地表征說話人的聲學特征。然而,實際上,這里用到的變化檢測算法并不是十全十美的,會導(dǎo)致分割出的片段可能包含多位說話人的語音。

(2)聚類階段要求說話人的數(shù)量已知,并且這一階段對于輸入的準確性十分敏感。

(3)系統(tǒng)需要在用于估計人聲特征的片段大小和期望的模型準確率之間做出艱難的權(quán)衡。片段越長,人聲特征的質(zhì)量就越高,因為此時模型擁有更多關(guān)于說話人的信息。這然而,這就帶來了將較短的插入語分配給錯誤的說話人的風險。這將產(chǎn)生非常嚴重的后果,例如,在處理臨床醫(yī)學或金融領(lǐng)域的對話的環(huán)境下,我們需要準確地追蹤肯定和否定的陳述。

(4)傳統(tǒng)的說話人分類系統(tǒng)并沒有一套方便的機制,從而利用在許多自然對話中非藏明顯的語言學線索。例如,「你多久服一次藥?」在臨床對話中最有可能是醫(yī)護人員說的,而不會是病人說的。類似地,「我們應(yīng)該什么時候上交作業(yè)?」則最有可能是學生說的,而不是老師說的。語言學的線索也標志著說話人有很高的概率發(fā)生了改變(例如,在一個問句之后)。

然而,傳統(tǒng)的說話人分類系統(tǒng)也有一些性能較好的例子,在谷歌此前發(fā)布的一篇博文中就介紹了其中之一(博文地址:https://ai.googleblog.com/2018/11/accurate-online-speaker-diarization.html)。在此工作中,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的隱藏狀態(tài)會追蹤說話人,克服了聚類階段的缺點。而本文提出的模型則采用了不容的方法,引入了語言學線索。

集成的語音識別和說話人分類系統(tǒng)

我們研發(fā)出了一種簡單的新型模型,該模型不僅完美地融合了聲學和語音線索,而且將說話人分類和語音識別任務(wù)融合在了同一個系統(tǒng)中。相較于相同環(huán)境下僅僅進行語音識別的系統(tǒng)相比,這個集成模型并沒有顯著降低語音識別性能。

我們意識到,很關(guān)鍵的一點是:RNN-T 架構(gòu)非常適用于集成聲學和語言學線索。RNN-T 模型由三個不同的網(wǎng)絡(luò)組成:(1)轉(zhuǎn)錄網(wǎng)絡(luò)(或稱編碼器),將聲幀映射到一個潛在表征上。(2)預(yù)測網(wǎng)絡(luò),在給定先前的目標標簽的情況下,預(yù)測下一個目標標簽。(3)級聯(lián)網(wǎng)絡(luò),融合上述兩個網(wǎng)絡(luò)的輸出,并在該時間步生成這組輸出標簽的概率分布。

請注意,在下圖所示的架構(gòu)中存在一個反饋循環(huán),其中先前識別出的單詞會被作為輸入返回給模型,這使得 RNN-T 模型能夠引入語言學線索(例如,問題的結(jié)尾)。

  

谷歌再獲語音識別新進展:利用序列轉(zhuǎn)導(dǎo)來實現(xiàn)多人語音識別和說話人分類

集成的語音識別和說話人分類系統(tǒng)示意圖,該系統(tǒng)同時推斷「誰,在何時,說了什么」

在圖形處理單元(GPU)或張量處理單元(TPU)這樣的加速器上訓(xùn)練 RNN-T 并不是一件容易的事,這是因為損失函數(shù)的計算需要運行「前向推導(dǎo)-反向傳播」算法,該過程涉及到所有可能的輸入和輸出序列的對齊。最近,該問題在一種對 TPU 友好的「前向-后向」算法中得到了解決,它將該問題重新定義為一個矩陣乘法的序列。我們還利用了TensorFlow 平臺中的一個高效的 RNN-T 損失的實現(xiàn),這使得模型開發(fā)可以迅速地進行迭代,從而訓(xùn)練了一個非常深的網(wǎng)絡(luò)。

這個集成模型可以直接像一個語音識別模型一樣訓(xùn)練。訓(xùn)練使用的參考譯文包含說話人所說的單詞,以及緊隨其后的指定說話人角色的標簽。例如,「作業(yè)的截止日期是什么時候?」<學生>,「我希望你們在明天上課之前上交作業(yè)」<老師>。當模型根據(jù)音頻和相應(yīng)的參考譯文樣本訓(xùn)練好之后,用戶可以輸入對話記錄,然后得到形式相似的輸出結(jié)果。我們的分析說明,RNN-T 系統(tǒng)上的改進會影響到所有類型的誤差率(包括較快的說話者轉(zhuǎn)換,單詞邊界的切分,在存在語音覆蓋的情況下錯誤的說話者對齊,以及較差的音頻質(zhì)量)。此外,相較于傳統(tǒng)的系統(tǒng),RNN-T 系統(tǒng)展現(xiàn)出了一致的性能,以每段對話的平均誤差作為評價指標時,方差有明顯的降低。 

谷歌再獲語音識別新進展:利用序列轉(zhuǎn)導(dǎo)來實現(xiàn)多人語音識別和說話人分類

傳統(tǒng)系統(tǒng)和 RNN-T 系統(tǒng)錯誤率的對比,由人類標注者進行分類。

此外,該集成模型還可以預(yù)測其它一些標簽,這些標簽對于生成對讀者更加友好的 ASR 譯文是必需的。例如,我們已經(jīng)可以使用匹配好的訓(xùn)練數(shù)據(jù),通過標點符號和大小寫標志,提升譯文質(zhì)量。相較于我們之前的模型(單獨訓(xùn)練,并作為一個 ASR 的后處理步驟),我們的輸出在標點符號和大小寫上的誤差更小。

現(xiàn)在,該模型已經(jīng)成為了我們理解醫(yī)療對話的項目(https://ai.googleblog.com/2017/11/understanding-medical-conversations.html)中的一個標準模塊,并且可以在我們的非醫(yī)療語音服務(wù)中被廣泛采用。

Via  https://ai.googleblog.com/2019/08/joint-speech-recognition-and-speaker.html  雷鋒網(wǎng)雷鋒網(wǎng)

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

谷歌再獲語音識別新進展:利用序列轉(zhuǎn)導(dǎo)來實現(xiàn)多人語音識別和說話人分類

分享:
相關(guān)文章

知情人士

當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說