基于改進(jìn)的序列生成對(duì)抗網(wǎng)絡(luò)的詩(shī)歌生成問題研究
發(fā)布時(shí)間:2024-06-02 14:34
中國(guó)古詩(shī)詞以其精煉的語言、豐富的想象、真摯的情感傳唱千古而不衰,它不僅是詩(shī)人對(duì)生活的記錄、情感的抒發(fā),還包括了對(duì)世間萬物以及人生命運(yùn)的思考與把握,具有深刻的哲學(xué)內(nèi)容。近幾年,隨著互聯(lián)網(wǎng)技術(shù)的快速發(fā)展,人工智能再次以全新的姿態(tài)登上歷史舞臺(tái)。其中,自然語言處理領(lǐng)域中的詩(shī)歌生成技術(shù)是一項(xiàng)極具挑戰(zhàn)性的工作。目前國(guó)內(nèi)外雖然利用神經(jīng)網(wǎng)絡(luò)技術(shù)對(duì)詩(shī)歌生成問題進(jìn)行了相關(guān)的研究,但生成的詩(shī)歌往往因模型過于自由,存在主題偏離、表意不明的問題。另外,如何讓機(jī)器生成的詩(shī)歌更接近人類創(chuàng)作以及如何滿足詩(shī)歌平仄格律要求是一個(gè)研究難點(diǎn)。本文在序列生成對(duì)抗網(wǎng)絡(luò)模型的基礎(chǔ)上,做了以下改進(jìn):(1)將基于注意力機(jī)制的編碼解碼模型來代替原模型中生成器部分采用的長(zhǎng)短期記憶網(wǎng)絡(luò)模型。鑒于本文的輸入數(shù)據(jù)是幾個(gè)獨(dú)立的關(guān)鍵字,而不是具有時(shí)序信息的完整序列,而采用單一的長(zhǎng)短期記憶網(wǎng)絡(luò)模型往往出現(xiàn)與關(guān)鍵字信息關(guān)聯(lián)不強(qiáng)的詩(shī)歌文本,因此本文提出一種基于注意力機(jī)制的編解碼模型。首先基于分解機(jī)的語義特征編碼模型對(duì)關(guān)鍵字進(jìn)行特征提取,然后使用長(zhǎng)短期記憶網(wǎng)絡(luò)作為模型的解碼器。在編碼器和解碼器之間還有一個(gè)注意力模塊,保留關(guān)鍵信息,剔除不重要的信息。(2)借...
【文章頁數(shù)】:61 頁
【學(xué)位級(jí)別】:碩士
【文章目錄】:
摘要
Abstract
第1章 緒論
1.1 引言
1.2 研究背景及意義
1.3 研究的內(nèi)容、方法和技術(shù)路線
1.4 本文的主要貢獻(xiàn)
第2章 文獻(xiàn)綜述與相關(guān)理論
2.1 文獻(xiàn)綜述
2.2 相關(guān)理論
2.2.1 激活函數(shù)
2.2.2 生成式對(duì)抗網(wǎng)絡(luò)
2.2.3 卷積神經(jīng)網(wǎng)絡(luò)
2.2.4 強(qiáng)化學(xué)習(xí)
2.2.5 評(píng)估指標(biāo)
2.3 本章小結(jié)
第3章 基于注意力機(jī)制的編解碼模型
3.1 引言
3.2 長(zhǎng)短期記憶模型
3.3 編碼-解碼框架
3.3.1 編碼解碼
3.3.2 編解碼的缺點(diǎn)
3.3.3 注意力機(jī)制
3.4 結(jié)合注意力機(jī)制的編解碼模型
3.4.1 分解機(jī)語義特征編碼器設(shè)計(jì)
3.4.2 基于注意力機(jī)制的解碼器設(shè)計(jì)
3.5 實(shí)驗(yàn)結(jié)果與分析
3.5.1 數(shù)據(jù)來源及預(yù)處理
3.5.2 實(shí)驗(yàn)參數(shù)的配置
3.5.3 對(duì)比方法
3.5.4 實(shí)驗(yàn)結(jié)果
3.6 本章小結(jié)
第4章 改進(jìn)的序列生成對(duì)抗網(wǎng)絡(luò)的文本生成
4.1 序列生成對(duì)抗網(wǎng)絡(luò)
4.1.1 提出背景
4.1.2 模型介紹
4.2 集束搜索在文本生成中的應(yīng)用
4.2.1 提出背景
4.2.2 集束搜索及改進(jìn)
4.2.3 實(shí)驗(yàn)結(jié)果及分析
4.3 條件生成對(duì)抗網(wǎng)絡(luò)在文本生成中的應(yīng)用
4.4 模型框架
4.5 實(shí)驗(yàn)參數(shù)的設(shè)置
4.6 實(shí)驗(yàn)結(jié)果分析
4.7 生成示例
4.8 本章小結(jié)
第5章 總結(jié)與展望
致謝
參考文獻(xiàn)
本文編號(hào):3987382
【文章頁數(shù)】:61 頁
【學(xué)位級(jí)別】:碩士
【文章目錄】:
摘要
Abstract
第1章 緒論
1.1 引言
1.2 研究背景及意義
1.3 研究的內(nèi)容、方法和技術(shù)路線
1.4 本文的主要貢獻(xiàn)
第2章 文獻(xiàn)綜述與相關(guān)理論
2.1 文獻(xiàn)綜述
2.2 相關(guān)理論
2.2.1 激活函數(shù)
2.2.2 生成式對(duì)抗網(wǎng)絡(luò)
2.2.3 卷積神經(jīng)網(wǎng)絡(luò)
2.2.4 強(qiáng)化學(xué)習(xí)
2.2.5 評(píng)估指標(biāo)
2.3 本章小結(jié)
第3章 基于注意力機(jī)制的編解碼模型
3.1 引言
3.2 長(zhǎng)短期記憶模型
3.3 編碼-解碼框架
3.3.1 編碼解碼
3.3.2 編解碼的缺點(diǎn)
3.3.3 注意力機(jī)制
3.4 結(jié)合注意力機(jī)制的編解碼模型
3.4.1 分解機(jī)語義特征編碼器設(shè)計(jì)
3.4.2 基于注意力機(jī)制的解碼器設(shè)計(jì)
3.5 實(shí)驗(yàn)結(jié)果與分析
3.5.1 數(shù)據(jù)來源及預(yù)處理
3.5.2 實(shí)驗(yàn)參數(shù)的配置
3.5.3 對(duì)比方法
3.5.4 實(shí)驗(yàn)結(jié)果
3.6 本章小結(jié)
第4章 改進(jìn)的序列生成對(duì)抗網(wǎng)絡(luò)的文本生成
4.1 序列生成對(duì)抗網(wǎng)絡(luò)
4.1.1 提出背景
4.1.2 模型介紹
4.2 集束搜索在文本生成中的應(yīng)用
4.2.1 提出背景
4.2.2 集束搜索及改進(jìn)
4.2.3 實(shí)驗(yàn)結(jié)果及分析
4.3 條件生成對(duì)抗網(wǎng)絡(luò)在文本生成中的應(yīng)用
4.4 模型框架
4.5 實(shí)驗(yàn)參數(shù)的設(shè)置
4.6 實(shí)驗(yàn)結(jié)果分析
4.7 生成示例
4.8 本章小結(jié)
第5章 總結(jié)與展望
致謝
參考文獻(xiàn)
本文編號(hào):3987382
本文鏈接:http://www.wukwdryxk.cn/guanlilunwen/tongjijuecelunwen/3987382.html
最近更新
教材專著