文獻標識碼: A
DOI: 10.19358/j.issn.2096-5133.2020.12.008
引用格式: 蔡春兵,吳翠平,徐鯤鵬. 基于深度學習的視頻火焰識別方法[J].信息技術與網絡安全,2020,39(12):44-51.
0 引言
傳統的氣體型、感溫型、感煙型和感光型等火災探測器[1],依靠火災中的CO、CO2、溫度、煙霧微粒、熱和輻射等物理特征來探測火災發生。因其通常與火源距離較遠,導致可靠性與實時性都不足。視頻火災探測技術無需靠近火源,可實現大視野、遠距離監控,廣泛應用于大型工廠、森林和煤礦等大空間和室外開放空間的火災探測。
火焰具有明顯的視覺特征,傳統視頻火災探測算法通常根據火焰的顏色、形狀和紋理等靜態特征,以及閃爍頻率、面積增長、形態變化和移動方向等動態特征進行識別。CHEN T H等人[2]結合RGB色彩分割和火焰運動特性進行火焰像素的判定。KO B C[3]等人通過檢測運動區域和火焰顏色判斷來提取候選火焰區域,并對候選區域提取特征,用于訓練支持向量機SVM分類器,實現對火與非火的判定。MEI Z[4]等人通過幀間差分法和火焰顏色模型確定候選著火區域,然后提取火災候選區域特征組成的特征向量,用于訓練BP神經網絡模型來識別火災。候選區域的特征提取對后續分類器性能的好壞起到決定性的作用,傳統視頻火焰探測需要人工設計復雜的特征提取方法,在識別率和泛化性能上都有一定的局限性。
深度學習為傳統自然語言處理、計算機視覺等領域帶來了革命性進步,也必然促進視頻火災探測技術獲得突破性進展。深度學習算法可自動提取圖像特征,克服了傳統視頻火災探測需依靠人工經驗提取特征的缺陷。FRIZZI S等人[5]訓練了9層網絡結構的卷積神經網絡,實現了火災的識別。SON G等人[6]用AlexNet作為基礎架構,訓練了火災分類模型。WU H等人[7]分別訓練了區域檢測網絡和區域分類網絡,實現對火災的判定。上述方法都直接在原始圖片上使用卷積神經網絡進行特征提取,這樣大量的無關特征也將被傳入全連接網絡進行訓練,使得分類性能不佳。
通常,火焰只占據圖像的一部分,可首先提取火焰疑似區域,再將疑似區域傳入深度學習模型進行特征提取和精確識別。通過結合傳統方法和深度學習算法的優點,提出一種基于深度學習的視頻火焰識別方法。
本文的主要工作如下:
(1)利用改進的五幀差法和自適應混合高斯混合建模法(Adaptive Gaussian Mixture Model,AGMM)進行運動目標提取,并結合RGB-HSV混合顏色空間模型,提取疑似火焰區域。
(2)制作火與類火數據集,訓練AlexNet卷積神經網絡模型對疑似火焰區域進行精確識別。
(3)在實際數據上進行測試,并與文獻中其他算法進行對比,以評價算法的召回率、準確率和誤報率。
本文詳細內容請下載:http://m.rjjo.cn/resource/share/2000003226
作者信息:
蔡春兵,吳翠平,徐鯤鵬
(中國礦業大學(北京) 化學與環境工程學院,北京100083)