基于非負矩陣分解的農作物葉部病害識別
發(fā)布時間:2020-12-19 00:14
農業(yè)是中國經濟的基礎支撐產業(yè),在人類的生活中具有非常重要的地位,單位面積內農作物的生產產量高低與人們的生活息息相關。隨著農業(yè)經濟的快速發(fā)展,傳統的病害分類和識別方法已經無法有效解決大量的病害問題,智能化的病害分類和識別方法顯得越來越重要。隨著互聯網時代的快速發(fā)展,人們可以輕易的采集到病害圖片。然而在采集過程中,由于天氣原因、傳感器損壞或人為因素,致使采集的病害數據集出現高斯噪聲、椒鹽噪聲或塊遮擋等異常情況。本文基于非負矩陣分解和卷積神經網絡理論來研究含有噪聲的病害數據和病害等級分類問題。非負矩陣分解主要用于提取農作物葉部病害數據的特征,卷積神經網絡對提取后的特征進行處理和識別。具體研究內容包括:(1)在曼哈頓矩陣分解框架基礎上,本文提出了權重曼哈頓非負矩陣分解方法來(WNMF)減弱噪聲對特征空間的影響。WNMF既能修復被噪聲污染的病害數據,又能用修復的數據來學習更加魯棒的特征表示。(2)在稀疏編碼框架基礎上,本文提出了基于稀疏非負矩陣分解的特征提取方法,使得特征空間具有稀疏性和魯棒性。(3)結合非負矩陣分解理論以及卷積神經網絡相關理論,設計出建立在卷積神經網絡算法上的病害識別模型,該算...
【文章來源】:重慶三峽學院重慶市
【文章頁數】:47 頁
【學位級別】:碩士
【部分圖文】:
卷積核的計算過程
關鍵技術概述9一半,輸出的長度變成了2*2。圖2.2池化層操作示意圖2.2.3激活函數(ActivationFunction)除CNN的輸入層外,其他每層都能夠使用一種激活函數接受到輸入與權重的乘積之和。在某些線性運用表達能力不足時,CNN會通過非線性映射的手段和方式來激活函數,用來篩選從網絡中獲得的特征。常用的激活函數大致能夠區(qū)分為(飽和非線性函數(Tanh,Sigmoid)和不飽和非線性函數(ReLU),在現實生活運用中,Sigmoid和Tanh函數一般會在全連接層被用到,而ReLU函數則被卷積層采用。下面用列表形式介紹其定義及圖像,如表2.1所示。表2.1常用激活函數(ActivationFunction)函數函數表達式函數曲線圖飽和非線性函數Sigmoid函數xexf11)(Tanh函數xxeexf221-1)(不飽和非ReLu函數0,00,)(xxxxf
關鍵技術概述11]log}{1[1)(111)()()(mikjkjxxiiTjiTjeejymJ式(2-7)函數中的.1是真假性函數,是指如果其中的內容為真,取值為1,反之則取值為0。2.2.5隨機失活技術(Dropout)為了解決隨著神經網絡層數的持續(xù)增多、網絡模型規(guī)模不斷的增大而造成的臨訓練時間過長和可能過擬合的現象,那么就需要通過Dropout層。在實踐過程中Dropout層發(fā)揮了很好的作用,這是因為在網絡的計算過程中會對神經元的一些特性進行阻止,來有效的避免網絡過度擬合,同時也增加了網絡的適應能力。Dropout所具有的核心思想[19]是在訓練過程中隨機遺棄掉網絡中某些隱藏層的神經元模型,因為該節(jié)點可能會在下一次網絡訓練過程中被重新更新使用。下面介紹Dropout技術的過程,如圖2.3所示:圖2.3隨機失活(Dropout)示意圖詳細的過程如下:在隨意“遺棄”某些神經元之后會繼續(xù)用BP算法來對“遺棄”之后的神經元網絡的權重參數進行更新。在對下一批樣本進行輸入時,再隨機在原始神經網絡的基礎上“遺棄”一部分的神經元,和之前“遺棄”是不一樣的,后面的訓練過程中仍利用BP的反向傳播算法更新權重。操作時,那些被“遺棄”的神經元還是隨機的,通過對神經元隨機的“遺棄”它們之間的相互依賴關系就能降低,就能獲取到有用的圖像特征。我們在訓練差異樣本的情形下運用到Dropout,本質上就是因為訓練神經網絡的結構是具有差異性的。而Dropout能在規(guī)定的時間內將許多個結構不同的網絡訓練出來,是因為權值一致的原因。我們在運用Dropout進行處理后,發(fā)
本文編號:2924872
【文章來源】:重慶三峽學院重慶市
【文章頁數】:47 頁
【學位級別】:碩士
【部分圖文】:
卷積核的計算過程
關鍵技術概述9一半,輸出的長度變成了2*2。圖2.2池化層操作示意圖2.2.3激活函數(ActivationFunction)除CNN的輸入層外,其他每層都能夠使用一種激活函數接受到輸入與權重的乘積之和。在某些線性運用表達能力不足時,CNN會通過非線性映射的手段和方式來激活函數,用來篩選從網絡中獲得的特征。常用的激活函數大致能夠區(qū)分為(飽和非線性函數(Tanh,Sigmoid)和不飽和非線性函數(ReLU),在現實生活運用中,Sigmoid和Tanh函數一般會在全連接層被用到,而ReLU函數則被卷積層采用。下面用列表形式介紹其定義及圖像,如表2.1所示。表2.1常用激活函數(ActivationFunction)函數函數表達式函數曲線圖飽和非線性函數Sigmoid函數xexf11)(Tanh函數xxeexf221-1)(不飽和非ReLu函數0,00,)(xxxxf
關鍵技術概述11]log}{1[1)(111)()()(mikjkjxxiiTjiTjeejymJ式(2-7)函數中的.1是真假性函數,是指如果其中的內容為真,取值為1,反之則取值為0。2.2.5隨機失活技術(Dropout)為了解決隨著神經網絡層數的持續(xù)增多、網絡模型規(guī)模不斷的增大而造成的臨訓練時間過長和可能過擬合的現象,那么就需要通過Dropout層。在實踐過程中Dropout層發(fā)揮了很好的作用,這是因為在網絡的計算過程中會對神經元的一些特性進行阻止,來有效的避免網絡過度擬合,同時也增加了網絡的適應能力。Dropout所具有的核心思想[19]是在訓練過程中隨機遺棄掉網絡中某些隱藏層的神經元模型,因為該節(jié)點可能會在下一次網絡訓練過程中被重新更新使用。下面介紹Dropout技術的過程,如圖2.3所示:圖2.3隨機失活(Dropout)示意圖詳細的過程如下:在隨意“遺棄”某些神經元之后會繼續(xù)用BP算法來對“遺棄”之后的神經元網絡的權重參數進行更新。在對下一批樣本進行輸入時,再隨機在原始神經網絡的基礎上“遺棄”一部分的神經元,和之前“遺棄”是不一樣的,后面的訓練過程中仍利用BP的反向傳播算法更新權重。操作時,那些被“遺棄”的神經元還是隨機的,通過對神經元隨機的“遺棄”它們之間的相互依賴關系就能降低,就能獲取到有用的圖像特征。我們在訓練差異樣本的情形下運用到Dropout,本質上就是因為訓練神經網絡的結構是具有差異性的。而Dropout能在規(guī)定的時間內將許多個結構不同的網絡訓練出來,是因為權值一致的原因。我們在運用Dropout進行處理后,發(fā)
本文編號:2924872
本文鏈接:http://www.wukwdryxk.cn/shoufeilunwen/zaizhiyanjiusheng/2924872.html
最近更新
教材專著