基于三個(gè)UWB錨點(diǎn)基站,采集近5萬條數(shù)據(jù),分別采用BPNN和LSTM兩種神經(jīng)網(wǎng)絡(luò)訓(xùn)練和預(yù)測模型,實(shí)現(xiàn)目標(biāo)區(qū)域的判斷;
實(shí)驗(yàn)共使用了11741條數(shù)據(jù),按照8 : 2的比例劃分為訓(xùn)練集與測試集
模型采用的是3層BPNN,隱含層為3,維度變化依次為3->32->16->4
損失函數(shù)使用的是交叉熵,優(yōu)化器選擇的是Adam,學(xué)習(xí)率為0.0001
訓(xùn)練輪數(shù)為100,為了提高訓(xùn)練效率和泛化能力,將32個(gè)數(shù)據(jù)作為一批,按批進(jìn)行訓(xùn)練,在100輪訓(xùn)練之后,訓(xùn)練損失逐漸收斂于0.005;
在測試集中的2349個(gè)數(shù)據(jù)中的測試準(zhǔn)確率為94.85%
LSTM模型
數(shù)據(jù)歸一化與劃分,使用numpy的最大值函數(shù)獲取每個(gè)特征列的最大值,并將數(shù)據(jù)進(jìn)行預(yù)處理,使用最大值歸一化并將數(shù)據(jù)按照8:2的比例進(jìn)行模型的訓(xùn)練與預(yù)測。
模型的構(gòu)建:使用了Keras來創(chuàng)建模型。模型結(jié)構(gòu)包括一個(gè)LSTM層,它有32個(gè)神經(jīng)元,激活函數(shù)為Relu。Dropout層設(shè)置為20%的丟棄比率。全連接層輸出4個(gè)神經(jīng)元,使用softmax激活函數(shù)進(jìn)行多類分類。對模型進(jìn)行編譯,使用Adam優(yōu)化器和分類交叉熵?fù)p失函數(shù)。之后將模型進(jìn)行擬合,指定批量大小(batch_size)為20,訓(xùn)練次數(shù)(epochs)為100。
經(jīng)過100輪訓(xùn)練之后,模型的訓(xùn)練準(zhǔn)確率達(dá)到了95.52%,損失函數(shù)為0.1134.測試數(shù)據(jù)約3000條的測試準(zhǔn)確率為95.99%。
后續(xù)會進(jìn)一步基于兩種神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)模型,通過減少錨點(diǎn)以及增加時(shí)間序列和信號能量以及信號到達(dá)角輸入變量,觀察預(yù)測模型的準(zhǔn)確率;
審核編輯:湯梓紅
-
算法
+關(guān)注
關(guān)注
23文章
4588瀏覽量
92505 -
UWB
+關(guān)注
關(guān)注
32文章
1066瀏覽量
60936 -
模型
+關(guān)注
關(guān)注
1文章
3115瀏覽量
48660 -
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5466瀏覽量
120891
發(fā)布評論請先 登錄
相關(guān)推薦
評論