這個項目能夠為消防員提供紅外視覺感,以幫助他們從燃燒的建筑物中營救人員。
背景
熱像儀 (TIC) 已被證明是消防員的寶貴工具。它們使消防員能夠更快地找到受害者,更一致地成功駛出燃燒的房屋,并減少令人滿意地完成搜索所需的時間。然而,一些問題仍然存在。尋找受害者時,需要花費時間拉出 TIC,進行設(shè)置并讀取顯示。手持 TIC 顯示器在濃煙中難以準(zhǔn)確看到,導(dǎo)致受害者定位較慢。使用顯示器需要操作員將他們的眼睛和注意力從周圍的環(huán)境中移開,從而導(dǎo)致意識喪失并增加隧道視力的風(fēng)險。
利用機器學(xué)習(xí)為消防員提供紅外線 (IR) 感覺的感官替代設(shè)備將是一個有用的工具。這將減少消防員在顯示器上將視線從周圍環(huán)境中移開的次數(shù)(也降低了隧道視力的風(fēng)險),因為他們將不再覺得需要不斷地監(jiān)控 TIC 顯示器,因為他們將不斷地獲得重要的 IR 信息。當(dāng)感覺到適當(dāng)?shù)拇碳r,他們將能夠更快地做出反應(yīng),而不是不得不參考顯示器,從而減少受害者的救援時間。直接將關(guān)鍵信息流式傳輸給消防員將減少顯示器在濃煙中的低能見度成為問題的情況。總體而言,具有 IR 意識的消防員在搜救行動中會更有效。
如何設(shè)置項目
我們將 Qwiic 電纜(面包板跳線(4 針))連接到 MLX90640 SparkFun IR Array Breakout (MLX)。四根線(黑、紅、黃、藍)分別代表GND、VIN(3.3V)、SCL、SDA。
因為我們的 Qwiic 電纜不是母跳線,所以我們使用四根 ff 面包板線將 Qwiic 電纜引腳連接到 Raspberry Pi (Pi)。在下圖中,可以看到黑色、紅色、黃色和藍色 Qwiic 引腳分別連接到棕色、紅色、黃色和橙色 ff 面包板線。
ff 面包板線的顏色并不重要,但關(guān)鍵是 Qwiic 電纜 GND、VIN、SCL 和 SDA 引腳連接到適當(dāng)?shù)?Pi 引腳(分別為引腳 6、1、5 和 3)。下面可以看到 Pi 引腳分配指南以及我們與 Pi 的連接。
完成后,我們創(chuàng)建了一個小紙板相機支架,通過切掉披薩盒的一側(cè)來幫助支撐相機。此步驟不是必需的,因此請隨意跳過它或自己制作。
實施概述
將相機連接到樹莓派
使用 Adafruit 庫,我們能夠從 MLX90640 熱像儀中讀取數(shù)據(jù)。
import adafruit_mlx90640
import time,board,busio
i2c = busio.I2C(board.SCL, board.SDA, frequency=1000000) # setup I2C
mlx = adafruit_mlx90640.MLX90640(i2c) # begin MLX90640 with I2C comm
mlx.refresh_rate = adafruit_mlx90640.RefreshRate.REFRESH_2_HZ # set refresh rate
frame = [0]*768 # setup array for storing all 768 temperatures
mlx.getFrame(frame)
此時,我們將溫度數(shù)據(jù)存儲在一個數(shù)組中,準(zhǔn)備好進行預(yù)處理。
預(yù)處理原始溫度數(shù)據(jù)并提供給分類服務(wù)
我們的預(yù)處理步驟需要將溫度數(shù)據(jù)轉(zhuǎn)換為稍后可以輸入到我們的邊緣脈沖模型中的圖像。這是使用Matplotlib 庫完成的,然后將圖像保存到 Buffer Stream 并編碼為 base64 字符串。
mlx.getFrame(frame)
mlx_shape = (24,32)
fig = plt.figure(frameon=False)
ax = plt.Axes(fig, [0., 0., 1., 1.])
ax.set_axis_off()
fig.add_axes(ax)
thermal_image = ax.imshow(np.zeros(mlx_shape), aspect='auto')
MIN= 18.67
MAX= 43.68
data_array = (np.reshape(frame,mlx_shape)) # reshape to 24x32
thermal_image.set_data(np.fliplr(data_array)) # flip left to right
thermal_image.set_clim(vmin=MIN,vmax=MAX) # set bounds
buf = io.BytesIO()
fig.savefig(buf,format='jpg',facecolor='#FCFCFC',bbox_inches='tight')
img_b64 = base64.b64encode(buf.getvalue()).decode()
buf.close()
plt.close(fig)
使用 http post 請求將 base64 字符串和原始幀數(shù)據(jù)發(fā)送到我們的分類微服務(wù)。微服務(wù)將通過 Edge Impulse 模型運行圖像,并經(jīng)過一些后處理(如下所述)返回一個標(biāo)志,說明是否在幀中檢測到一個人,如果是,那么他們是什么方向,即左、中、右。
分類服務(wù)
分類服務(wù)接受一個 post 請求,請求中包含兩個數(shù)據(jù)對象:原始數(shù)據(jù)數(shù)組和以 base64 表示的圖像。圖像在被傳遞到分類器之前需要進行預(yù)處理。首先,我們必須提取圖像的原始特征。圖像被解碼為圖像緩沖區(qū),然后將其轉(zhuǎn)換為圖像的十六進制表示。這個十六進制字符串被分割成單獨的 RGB 值并轉(zhuǎn)換成整數(shù),準(zhǔn)備處理到分類器中。
let raw_features = [];
let img_buf = Buffer.from(request.body.image, 'base64')
try{
let buf_string = img_buf.toString('hex');
// store RGB pixel value and convert to integer
for (let i=0; i raw_features.push(parseInt(buf_string.slice(i, i+6), 16));
}
} catch(error) {
throw new Error("Error Processing Incoming Image");
}
原始特征被輸入到分類器中,并返回一個由兩個標(biāo)簽組成的對象。標(biāo)簽是圖像中的人和不在圖像中的人的置信度等級。
let result = {"hasPerson":false}
let classifier_result = classifier.classify(raw_features);
no_person_value = 0
person_value = 0
if(classifier_result["results"][0]["label"] === "no person"){
no_person_value = classifier_result["results"][0]["value"]
} else {
throw new Error("Invalid Model Classification Post Processing")
}
if(classifier_result["results"][3]["label"] === "person"){
person_value = classifier_result["results"][3]["value"]
} else {
throw Error("Invalid Model Classification Post Processing")
}
然后將這兩個標(biāo)簽值與我們的置信度閾值進行比較,以確定是否有人在幀中看到過。如果沒有,分類器服務(wù)會使用一個包含一個字段的對象來響應(yīng)發(fā)布請求:
“hasPerson”=假。
然而,如果置信值達到或超過閾值標(biāo)準(zhǔn),則使用原始溫度數(shù)據(jù)來確定熱源來自幀中的哪個位置。
if(person_value > person_threshold
&& no_person_value < no_person_threshold){
result["hasPerson"] = true
// If is person find brightspot in the image
let frame_data = request.body.frame
let column_average = new Array(32)
index_count = 0;
for(let j = 0; j < 24; j++){
for (let i = 0; i < 32; i ++){
column_average[i] = (column_average[i] || 0)
+ parseFloat(frame_data[index_count])
index_count++
}}
left_avg = 0
centre_avg = 0
right_avg = 0
for(let i = 0; i < 16; i++){
left_avg = left_avg + column_average[i]
}
for(let i = 8; i < 24; i++){
centre_avg = centre_avg + column_average[i]
}
for(let i = 17; i < 32; i++){
right_avg = right_avg + column_average[i]
}
var direction
if(left_avg > centre_avg && left_avg > right_avg){
direction = 1
} else if (centre_avg > left_avg && centre_avg > right_avg){
direction = 2
} else if (right_avg > left_avg && right_avg > centre_avg){
direction = 3
} else {
direction = 4
}
result["direction"]=direction
一個響應(yīng)對象從 post 請求中返回,帶有兩個值:
“hasPerson” = 真
“方向” = <方向值>
我們使用Python 的 Neosensory SDK以便在將 Buzz 與 Pi 配對后向 Buzz 發(fā)送電機命令。我們選擇使用時空掃描(“在空間和時間上編碼的模式”),因為 Novich 和 Eagleman [2] 的一項研究發(fā)現(xiàn),與空間模式和由以下組成的模式相比,它們是將數(shù)據(jù)編碼到皮膚的最佳方法單個電機通過振動刺激皮膚區(qū)域。時空掃描的更高識別性能允許通過皮膚進行更大的信息傳輸 (IT),這意味著消防員可以接收更多有用的信息(以及獲得的 IR 感知的更大潛在有效性)。因為我們只關(guān)心三個方向值,所以創(chuàng)建了三個掃描數(shù)組來描述一個人在框架的左側(cè)、右側(cè)或中心,如下所示:
sweep_left = [255,0,0,0,0,255,0,0,0,0,255,0,0,0,0,255,0,0,0,0]
sweep_right = [0,0,0,255,0,0,255,0,0,255,0,0,255,0,0,0,0,0,0,0]
sweep_centre = [255,0,0,0,0,255,0,0,0,0,0,255,0,0,255,0,0,0,0,0]
當(dāng) Pi 接收到一個響應(yīng)對象,該對象表示框架中有一個人以及他們在框架中的什么位置時,就會向 Buzz 發(fā)送一個振動電機命令:
if(response['hasPerson'] == True):
print("has person")
if(response['direction']):
print(response['direction'])
if response['direction'] == 1:
await my_buzz.vibrate_motors(sweep_right)
print("Right")
elif response['direction'] == 2:
await my_buzz.vibrate_motors(sweep_centre)
print("Centre")
elif response['direction'] == 3:
await my_buzz.vibrate_motors(sweep_left)
print("Left")
else:
print("inconclusive")
else:
print("no person")
我們發(fā)現(xiàn)每次運行代碼時都必須將 Buzz 置于配對模式,以最大程度地減少發(fā)送命令時 Buzz 不振動的可能性。
邊緣脈沖
數(shù)據(jù)集收集
當(dāng) MLX 指向某人時,768 個溫度值的數(shù)組被保存在一個 .txt 文件中。這些文件的組織方式是為了便于上傳到 Edge Impulse,其中有人在框架中,哪些地方在框架中有物體(例如散熱器或狗);哪些地方什么都沒有。
數(shù)據(jù)預(yù)處理
我們?yōu)橛?xùn)練模型而對數(shù)據(jù)進行預(yù)處理的方法與我們處理來自上述攝像頭的實時信息的方法類似,只是數(shù)據(jù)源是包含溫度值的文本文件。我們編寫了一個 python 腳本來遍歷所有這些文件并將它們輸出為圖像。在將溫度轉(zhuǎn)換為圖像時,我們需要有一個最小值和最大值來分配給顏色范圍。為了找到這些最小值、最大值,我們在約 400 個溫度陣列的數(shù)據(jù)集中找到了最低和最高溫度。
創(chuàng)建模型
使用 Edge Impulse,我們上傳了帶有適當(dāng)標(biāo)簽“人員”和“無人”的收集數(shù)據(jù),并允許數(shù)據(jù)在訓(xùn)練和測試之間自動拆分。對于脈沖設(shè)計,我們嘗試了處理和學(xué)習(xí)模塊的不同組合(例如圖像和神經(jīng)網(wǎng)絡(luò) (Keras)),但我們發(fā)現(xiàn)使用我們的數(shù)據(jù),圖像處理模塊和遷移學(xué)習(xí)學(xué)習(xí)模塊的性能最好。
我們使用 RGB 作為顏色深度參數(shù),然后生成特征。
我們將訓(xùn)練周期數(shù)設(shè)置為 20,學(xué)習(xí)率為 0.0005,并將最小置信度設(shè)置為 0.6。
我們將沖動部署為具有默認優(yōu)化的 WebAssembly 庫。
模型運行
該模型運行良好,但存在一些問題,因為它偶爾會輸出誤報和漏報。下面是當(dāng)有人直接坐在 MLX 前面并且模型正確識別出他們位于框架中心時,在我們的節(jié)點 js 服務(wù)器和 Pi 上的 Python 代碼中運行的模型輸出的一些屏幕截圖:
未來的可能
改進的熱成像相機
雖然 MLX 對家庭愛好者來說是一款出色的 TIC,但我們認為它在幫助消防員拯救生命方面并不能勝任。此處可見的像 FLIR K53 這樣的“高性能”TIC具有令人印象深刻的 320x240 分辨率(與 MLX 的 768 相比,總像素為 76800)和 60 Hz 的刷新率。更復(fù)雜的 TIC(具有更高的分辨率和刷新率)將使模型更容易準(zhǔn)確地檢測人體形狀,并且有必要將這個項目變成產(chǎn)品。
模型的進一步訓(xùn)練
我們還認為需要一個更復(fù)雜的模型才能將這個項目變成一個產(chǎn)品。該項目的下一步將是開發(fā)一個模型,該模型可以檢測同一幀中的多個人,并且不僅輸出是否在幀中檢測到一個人,還輸出他們在幀中的位置。該模型應(yīng)根據(jù) x 軸和 y 軸給出位置。如果可能,應(yīng)傳達有關(guān)人員與攝像機的距離的信息,甚至是有關(guān)人員“可見”程度的信息(例如,如果僅檢測到手臂,則模型應(yīng)傳達人員“部分可見”是由于障礙物,例如床或瓦礫)。
對于這個項目,我們有一個非常簡單的觸覺語言,它只需要傳達關(guān)于三個位置的信息。展望未來,隨著模型輸出更多信息,需要設(shè)計更精細的觸覺語言。這可以與位于消防員身體上的更大陣列的執(zhí)行器一起使用,以促進更豐富的時空掃描。最終產(chǎn)品可能旨在讓消防員穿著觸覺袖子或背心,而不是一個 Buzz。
-
熱像儀
+關(guān)注
關(guān)注
0文章
352瀏覽量
23837 -
MLX90640
+關(guān)注
關(guān)注
2文章
22瀏覽量
1202
發(fā)布評論請先 登錄
相關(guān)推薦
評論