日本在线看黄a美女久草|日本动漫亚洲在线一区|日韩人妻无码免费视频|A√有码中文字幕|日韩一级片视频热久久久|一区二区三区四区精品无码在线|亚洲AV成人无码一二三app|亚洲综合图片绯色|91极品人妻在线网站|国产成人精品一区二三区四区五区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能開發(fā)者 正文
發(fā)私信給AI研習(xí)社-譯站
發(fā)送

0

如何在Keras中開發(fā)神經(jīng)機器翻譯系統(tǒng)?

本文作者: AI研習(xí)社-譯站 2018-01-29 10:54
導(dǎo)語:在本教程中,您將了解如何開發(fā)一個神經(jīng)機器翻譯系統(tǒng),可以用于將德語翻譯成英語。

本文為雷鋒字幕組編譯的技術(shù)博客,原標題How to Develop a Neural Machine Translation System in Keras from Scratch,作者為Jason Brownlee。

翻譯 | 曹永勝  林立宏    校對 |  凡江

機器翻譯是一項具有挑戰(zhàn)性的任務(wù),包含一些使用高度復(fù)雜的語言知識開發(fā)的大型統(tǒng)計模型。

神經(jīng)機器翻譯的工作原理是——利用深層神經(jīng)網(wǎng)絡(luò)來解決機器翻譯問題。

在本教程中,你將了解如何開發(fā)一個神經(jīng)機器翻譯系統(tǒng),可以用于將德語翻譯成英語。

學(xué)習(xí)完本教程后,你將知道:

  • 如何清理和準備數(shù)據(jù)來訓(xùn)練神經(jīng)機器翻譯系統(tǒng)

  • 如何開發(fā)機器翻譯的編碼器-解碼器模型  

  • 如何使用訓(xùn)練有素的模型對新輸入短語進行推理,并對模型技巧進行評價

讓我們開始吧。

如何在Keras中開發(fā)神經(jīng)機器翻譯系統(tǒng)?

如何在Keras開發(fā)神經(jīng)機器翻譯系統(tǒng)  照片由 Bj?rn Gro?提供

教程概述

教程分為4個部分:

  1. 德語翻譯成英語的數(shù)據(jù)集

  2. 準備文本數(shù)據(jù)

  3. 訓(xùn)練神經(jīng)翻譯模型

  4. 評估神經(jīng)翻譯模型


Python 環(huán)境

本教程預(yù)設(shè)你安裝了Python 3 SciPy環(huán)境。  

你必須安裝帶有TensorFlowTheano后端的Keras(2.0或更高版本)。  

本教程還假定你已經(jīng)安裝了NumPyMatplotlib。  

關(guān)于安裝環(huán)境,如需要幫助,請看這篇文章:


德語翻譯成英語的數(shù)據(jù)集  

在本教程中,我們將使用德語譯成英語的數(shù)據(jù)集作為語言學(xué)習(xí)的抽認卡的基礎(chǔ)。  

數(shù)據(jù)集可以從 ManyThings.org 網(wǎng)站獲得,,案例是從 Tatoeba Project 項目中提取出來的。該數(shù)據(jù)集由德語短語和英語單詞組成,我們使用的是 Anki flashcard software軟件。

該頁面提供了許多語言對的列表,我鼓勵你探索其他語言:  

Tab-delimited Bilingual Sentence Pairs

本教程中使用的數(shù)據(jù)集可以在這里下載:

German – English deu-eng.zip

將數(shù)據(jù)集下載到當前工作目錄并解壓;例如:

如何在Keras中開發(fā)神經(jīng)機器翻譯系統(tǒng)?

你會有一個叫deu.txt的文件。txt中包含152,820對德語階段的英語,每一行有一行,并有一個標簽分隔語言。  

例如,文件的前5行看起來如下:

如何在Keras中開發(fā)神經(jīng)機器翻譯系統(tǒng)?

我們使用德語詞句序列作為輸入,將其翻譯成英語的的詞句序列,這就是我們的預(yù)測問題。

這個開發(fā)的模型將適用于一些初學(xué)者級別的德語短語。 


準備文本數(shù)據(jù)  

下一步是準備用于建模的文本數(shù)據(jù)。

先查看原始數(shù)據(jù),請注意,你所有看到的內(nèi)容,很可能就是我們在數(shù)據(jù)清洗過程中所需要用到的。

例如,在我回顧原始數(shù)據(jù)時,請注意到以下幾點:  

  • 有標點符號。

  • 文本包含大寫和小寫。

  • 在德語中有一些特殊的字符。

  • 英語中有重復(fù)的短語,有不同的德語翻譯。

  • 這個文件是按句子長度排序的,在文件的末尾有很長的句子。  

一個好的文本清理程序可以處理一些或全部的這些問題。  

數(shù)據(jù)準備分為兩部分:  

  1. 清理文檔

  2. 分離文檔

1. 清理文檔

首先,我們必須以保存Unicode德語字符的方式加載數(shù)據(jù)。下面的函數(shù)名為load_doc(),它將把文件加載為一個文本blob。 

如何在Keras中開發(fā)神經(jīng)機器翻譯系統(tǒng)?

每行包含一對短語,先是英語,然后是德語,然后用制表符分隔。

我們必須逐行拆分已加載的文本。函數(shù)to_pairs()將分割加載的文本。 

如何在Keras中開發(fā)神經(jīng)機器翻譯系統(tǒng)?

我們現(xiàn)在準備好清理每個句子。我們將執(zhí)行的具體清理操作如下: 

  • 刪除所有非輸出字符。

  • 刪除所有標點字符。

  • 將所有Unicode字符規(guī)范化為ASCII(如拉丁字符)。

  • 將案例規(guī)范化為小寫。

  • 刪除所有不按字母順序排列的令牌。 

我們將在加載的數(shù)據(jù)集中對每一對語句執(zhí)行這些操作。  

clean_pairs()函數(shù)執(zhí)行這些操作。

如何在Keras中開發(fā)神經(jīng)機器翻譯系統(tǒng)?

最后,既然數(shù)據(jù)已經(jīng)被清理,我們可以將短語對列表保存到準備使用的文件中。

函數(shù)save_clean_data()使用pickle API將清理文本列表保存到文件中。

將所有這些組合在一起,下面列出了完整的示例。

如何在Keras中開發(fā)神經(jīng)機器翻譯系統(tǒng)?

運行該示例將在當前工作目錄中創(chuàng)建一個名為“english-german.pkl”的清理文本。

一些清理文本的例子被打印出來,以便我們在運行結(jié)束時進行評估,以確認清理的操作是按預(yù)期執(zhí)行的。

如何在Keras中開發(fā)神經(jīng)機器翻譯系統(tǒng)?

2. 分離文本

清理的數(shù)據(jù)包含了超過15萬個短語對,而其中的一些對到文件的結(jié)尾是很長的。

這是一個很好的例子來開發(fā)一個小的翻譯模型。 模型的復(fù)雜性隨著實例數(shù)量、短語長度和詞匯量的增加而增加。

雖然我們有一個良好的數(shù)據(jù)集來進行建模,但是我們會稍微簡化這個問題,以極大地減少模型所需的模型的大小,并將所需的訓(xùn)練時間轉(zhuǎn)換成適合模型的時間。

你可以在更完整的數(shù)據(jù)集上開發(fā)一個模型作為擴展。我們將通過將數(shù)據(jù)集減少到文件中的前10,000個示例來簡化問題;這些將是數(shù)據(jù)集中最短的短語。

此外,我們將把前9000個例子作為培訓(xùn)的示例和剩下的1,000個例子來測試fit模型。

下面是一個完整的示例,它加載干凈的數(shù)據(jù),拆分它,并將數(shù)據(jù)的分割部分保存到新文件中。

如何在Keras中開發(fā)神經(jīng)機器翻譯系統(tǒng)?

運行這個例子創(chuàng)建了三個新文件:  english-german-both.pkl  它包含了我們可以用來定義問題參數(shù)的所有用于訓(xùn)練和測試例子,例如max短語長度和詞匯表,以及 english-german-train.pklenglish-german-test.pkl 文件。用于訓(xùn)練和測試數(shù)據(jù)集的pkl文件。

現(xiàn)在我們已經(jīng)準備好開發(fā)翻譯模型。


訓(xùn)練神經(jīng)翻譯模型

在這部分中,我們會來建立翻譯模型。

這部分包含了加載和準備好清洗好的文本數(shù)據(jù)給模型,然后在這些數(shù)據(jù)上定義和訓(xùn)練該模型。

讓我們開始加載數(shù)據(jù)集,以便于準備數(shù)據(jù)。下面的函數(shù):load_clean_sentences() 用于加載訓(xùn)練的數(shù)據(jù)集,反過來也可以加載測試的數(shù)據(jù)集。

如何在Keras中開發(fā)神經(jīng)機器翻譯系統(tǒng)?

我們會使用或者結(jié)合訓(xùn)練,測試數(shù)據(jù)集定義了對最大長度和問題的詞匯量。

這挺簡單。我們能夠從單獨的數(shù)據(jù)集中定義這些屬性,然后在測試集中截斷太長或者是超過詞匯量的例子。

我們使用 Keras Tokenize 類去講詞匯映射成數(shù)值,如建模所需要的。我們會使用分離標記生成器給英語序列和德文序列,下面這個函數(shù)是 create_tokenizer() 會訓(xùn)練在一列短語中的標記生成器。

如何在Keras中開發(fā)神經(jīng)機器翻譯系統(tǒng)?

同樣地,max_length() 函數(shù)會找在一列單詞中最長的序列。

如何在Keras中開發(fā)神經(jīng)機器翻譯系統(tǒng)?

我們可以調(diào)用這些函數(shù)結(jié)合數(shù)據(jù)集來準備標記生成器,詞匯大小和最大的長度,英文和德文短語。

如何在Keras中開發(fā)神經(jīng)機器翻譯系統(tǒng)?

現(xiàn)在我們準備開始訓(xùn)練數(shù)據(jù)集。 

每個輸入輸出序列都必須編碼成數(shù)值,并填充為最大的詞匯長度。

這是因為,我們要使用一個嵌入的單詞給輸出序列,并對輸出序列進行熱編碼。下面這個函數(shù)為:encode_sequences()能執(zhí)行這些操作,并返回結(jié)果。

如何在Keras中開發(fā)神經(jīng)機器翻譯系統(tǒng)?

輸出序列需要一次熱編碼。這是應(yīng)為模型會預(yù)測每個詞匯的可能性作為輸出。

函數(shù) encode_output() 會熱編碼英文到輸出序列中。

如何在Keras中開發(fā)神經(jīng)機器翻譯系統(tǒng)?

我們可以使用這兩個函數(shù)準備訓(xùn)練和測試數(shù)據(jù)集給訓(xùn)練模型。

如何在Keras中開發(fā)神經(jīng)機器翻譯系統(tǒng)?

現(xiàn)在可以開始定義模型了。

在這個問題上,我們使用了編碼-解碼器 LSTM 模型。在這個架構(gòu)中,輸出序列是一個前端模型編碼器編碼好的序列,后端模型稱為解碼器,會一個詞匯一個詞匯地進行解碼。

函數(shù) define_model() 定義了模型,用了一些參數(shù)來設(shè)置模型,比如說輸入輸出的詞匯量大小,和輸入輸出的最大詞匯長度,和最大數(shù)量的內(nèi)存單元。

這個模型設(shè)置在這問題不是最優(yōu)的,這意味你有很多的潛力來調(diào)整它,提高翻譯的技巧。

如何在Keras中開發(fā)神經(jīng)機器翻譯系統(tǒng)?

最后,我們開始訓(xùn)練模型。

我們在批大小(batch size)大小為64的情況下在所有樣本數(shù)據(jù)集上完成30次訓(xùn)練迭代

我們使用檢查點來確保每次在測試集中,模型技能提高時,模型都被保存到文件中。

如何在Keras中開發(fā)神經(jīng)機器翻譯系統(tǒng)?

我們可以將所有這些結(jié)合在一起,并適用于神經(jīng)翻譯模型。 

下面列出了完整的工作示例。 

如何在Keras中開發(fā)神經(jīng)機器翻譯系統(tǒng)?

首先運行示例打印數(shù)據(jù)集的參數(shù)摘要,例如詞匯大小和最大短語長度。 

如何在Keras中開發(fā)神經(jīng)機器翻譯系統(tǒng)?

接下來,打印定義的模型的摘要,允許我們確認模型配置。 

如何在Keras中開發(fā)神經(jīng)機器翻譯系統(tǒng)?

該模型的圖也被創(chuàng)建,提供了關(guān)于模型配置的另一個視角。 

如何在Keras中開發(fā)神經(jīng)機器翻譯系統(tǒng)?

接下來,我們開始訓(xùn)練模型。 

現(xiàn)代CPU硬件每個時代大約需要30秒;不需要GPU。 

在運行過程中,模型將被保存到文件 model.h5 中,準備在下一步中進行推理。

如何在Keras中開發(fā)神經(jīng)機器翻譯系統(tǒng)?


評估神經(jīng)網(wǎng)絡(luò)翻譯模型

我們會評估訓(xùn)練和測試數(shù)據(jù)集。

該模型應(yīng)該在訓(xùn)練數(shù)據(jù)集上表現(xiàn)得非常好,理想的情況是已經(jīng)推廣到在測試數(shù)據(jù)集上表現(xiàn)良好。 

理想情況下,我們將使用單獨的驗證數(shù)據(jù)集來幫助選擇訓(xùn)練期間的模型而不是測試集。你可以試試這個作為擴展。 

清洗好的的數(shù)據(jù)集必須像之前一樣加載和準備。

如何在Keras中開發(fā)神經(jīng)機器翻譯系統(tǒng)?

接下來,訓(xùn)練期間保存的最佳模型必須加載。

如何在Keras中開發(fā)神經(jīng)機器翻譯系統(tǒng)?

評估包含了兩個步驟:首先生成翻譯的輸出序列,然后重復(fù)這個過程中的許多輸入的例子,總結(jié)模型的技巧在多個案例。

從推論開始,模型可以以一次性的方式預(yù)測整個輸出序列。

如何在Keras中開發(fā)神經(jīng)機器翻譯系統(tǒng)?

這是一系列整數(shù),我們可以枚舉并在標記器中查找以映射回單詞。 

下面這個函數(shù) word_for_id(),將執(zhí)行這個反向映射:

如何在Keras中開發(fā)神經(jīng)機器翻譯系統(tǒng)?

我們可以對翻譯中的每個整數(shù)執(zhí)行此映射,并將結(jié)果作為一串單詞來返回。 下面的函數(shù) predict_sequence() 對單個編碼的源短語執(zhí)行此操作。 

如何在Keras中開發(fā)神經(jīng)機器翻譯系統(tǒng)?

接下來,我們可以對數(shù)據(jù)集中的每個源短語重復(fù)此操作,并將預(yù)測結(jié)果與英文中的預(yù)期目標短語進行比較。 

我們可以在屏幕中打印一些對比結(jié)果,來篩選模型在實踐中的表現(xiàn)。

我們還將計算BLEU得分,以獲得模型表現(xiàn)如何的定量概念。 

evaluate_model() 函數(shù)實現(xiàn)了這個內(nèi)容,為提供的數(shù)據(jù)集中的每個短語調(diào)用上述 predict_sequence()  函數(shù)。

如何在Keras中開發(fā)神經(jīng)機器翻譯系統(tǒng)?

我們可以將所有這些結(jié)合在一起,并在訓(xùn)練和測試數(shù)據(jù)集上評估加載的模型。  

下面提供了完整的代碼展示:

如何在Keras中開發(fā)神經(jīng)機器翻譯系統(tǒng)?

首先運行示例打印源文本,期望和預(yù)測翻譯的示例,以及訓(xùn)練數(shù)據(jù)集的分數(shù),然后打印測試數(shù)據(jù)集。 

考慮到數(shù)據(jù)集的隨機洗牌和神經(jīng)網(wǎng)絡(luò)的隨機性,你的具體結(jié)果將有所不同。 

首先查看測試數(shù)據(jù)集的結(jié)果,我們可以看到這些翻譯是可讀的并且大部分是正確的。 

比如: “ich liebe dich” 正確地翻譯為 “i love you“

我們還可以看到BLEU-4得分為0.51,這提供了我們對這個模型可能期望的上限。 

如何在Keras中開發(fā)神經(jīng)機器翻譯系統(tǒng)?

看看測試集的結(jié)果,看看可讀的翻譯,這不是一件容易的事情。

比如說,我們看到 “ich mag dich nicht” 翻譯成 “我不喜歡你”。

我們也看到一些糟糕的翻譯和一個很好的例子,模型可能會受到進一步的調(diào)整,比如說 “ich bin etwas beschwipst” 翻譯成 “我有一點點”而不是預(yù)想的 “我有點醉了”

BLEU-4得分為0.076238,提供了一個基本的技能來進一步改進模型。 

如何在Keras中開發(fā)神經(jīng)機器翻譯系統(tǒng)?

拓展

本節(jié)列出了一些您可能希望拓展討論的想法。

  • 數(shù)據(jù)清洗??梢詫?shù)據(jù)執(zhí)行不同的數(shù)據(jù)清理操作,例如不去除標點符號或規(guī)范化大小寫,或者刪除重復(fù)的英語短語。

  • 詞匯表??梢詫υ~匯表進行細化,或者刪除在數(shù)據(jù)集中使用少于5次或10次的單詞,替換為“unk”。

  • 更多的數(shù)據(jù)。用于擬合模型的數(shù)據(jù)集可以擴展到50,000,100,000個短語或更多。

  • 輸入順序。輸入短語的順序可以顛倒,這已經(jīng)有相關(guān)報告表明能為提升能力,或者可以使用雙向輸入層。

  • 層數(shù)。編碼器和解碼器模型可以用附加層進行擴展,并進行更多的訓(xùn)練迭代,從而為模型提供更多的表征能力。

  • 存儲單元。編碼器和解碼器中的存儲器單元數(shù)量可以增加,為模型提供更多的表征能力。

  • 正則。該模型可以使用正則化,如權(quán)重或激活正則化,或在LSTM層使用丟棄。

  • 預(yù)訓(xùn)練的詞向量。預(yù)先訓(xùn)練的單詞向量可以在模型中使用

  • 遞歸模型。可以使用該模型的遞歸公式,其中輸出序列中的下一個單詞可以以輸入序列和到目前為止產(chǎn)生的輸出序列為條件。


延伸閱讀

這里提供了關(guān)于這個話題的一些材料,如果你想深入了解,可以查閱這些內(nèi)容

Tab-delimited Bilingual Sentence Pairs

German – English deu-eng.zip

Encoder-Decoder Long Short-Term Memory Networks


總結(jié)

在這個教程中,你可以學(xué)到——如何去建立一個神經(jīng)翻譯系統(tǒng)去翻譯德國詞語為英文。

尤其是學(xué)習(xí)到了以下這些要點:

  • 如何清洗數(shù)據(jù),準備好訓(xùn)練神經(jīng)翻譯系統(tǒng)的數(shù)據(jù) 

  • 如何開發(fā)機器翻譯的編碼器-解碼器模型 

  • 如何使用訓(xùn)練有素的模型對新輸入詞組進行推理并評估模型的技巧

博客原址:https://machinelearningmastery.com/develop-neural-machine-translation-system-keras/



更多文章,關(guān)注雷鋒網(wǎng),添加雷鋒字幕組微信號(leiphonefansub)為好友

備注「我要加入」,To be a  AI  Volunteer !

如何在Keras中開發(fā)神經(jīng)機器翻譯系統(tǒng)?

如何在Keras中開發(fā)神經(jīng)機器翻譯系統(tǒng)?

雷鋒網(wǎng)雷鋒網(wǎng)

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

如何在Keras中開發(fā)神經(jīng)機器翻譯系統(tǒng)?

分享:

知情人士

AI研習(xí)社(yanxishe.com)譯站頻道,傳播前沿人工智能知識,讓語言不再成為學(xué)習(xí)知識的門檻。(原雷鋒字幕組)
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說