《電子技術應用》
您所在的位置:首頁 > 人工智能 > 設計應用 > 基于深度學習的視頻火焰識別方法
基于深度學習的視頻火焰識別方法
2020年信息技術與網絡安全第12期
蔡春兵,吳翠平,徐鯤鵬
中國礦業大學(北京) 化學與環境工程學院,北京100083
摘要: 針對傳統視頻火災檢測方法依靠人工經驗提取火焰特征,誤報率高、魯棒性差的特點,提出一種基于深度學習的視頻火焰識別方法。該方法充分利用火焰的運動特征和顏色信息,先使用改進的五幀差法和自適應混合高斯建模法進行運動目標提取;再采用RGB-HSV混合顏色空間模型篩選出圖像中可能的火焰像素區域;最后將以上兩個步驟結合起來進行疑似火焰區域提取,并將疑似火焰區域圖像傳入預訓練的AlexNet卷積神經網絡模型進行火與非火的精確識別。通過對多種場景下火焰視頻的測試結果表明,提出的方法具有較高的召回率、準確率和較低的誤報率。
中圖分類號: TP391.4
文獻標識碼: A
DOI: 10.19358/j.issn.2096-5133.2020.12.008
引用格式: 蔡春兵,吳翠平,徐鯤鵬. 基于深度學習的視頻火焰識別方法[J].信息技術與網絡安全,2020,39(12):44-51.
Video flame recognition method based on deep learning
Cai Chunbing,Wu Cuiping,Xu Kunpeng
College of Chemical and Environmental Engineering,China University of Mining and Technology(Beijing), Beijing 100083,China
Abstract: Aiming at the characteristics of traditional video fire detection methods that rely on manual experience to extract flame features, with high false alarm rate and low accuracy, a video flame recognition method based on deep learning is proposed. This method makes full use of the motion characteristics and color information of the flame. Firstly, the improved five-frame subtraction method and the adaptive Gaussian mixture model are used to extract the moving objects. Then, the RGB-HSV mixed color space model is used to filter out the possible flame areas in the image. Finally, the above two steps are combined to extract the suspected flame area, and the extracted image of the suspected flame area is fed into the pre-trained AlexNet convolutional neural network model for accurate recognition. The test results of flame video in many scenarios show that the proposed method has higher recall rate, accuracy rate, and lower false alarm rate.
Key words : flame recognition;computer vision;deep learning;convolution neural network

0 引言

    傳統的氣體型、感溫型、感煙型和感光型等火災探測器[1],依靠火災中的CO、CO2、溫度、煙霧微粒、熱和輻射等物理特征來探測火災發生。因其通常與火源距離較遠,導致可靠性與實時性都不足。視頻火災探測技術無需靠近火源,可實現大視野、遠距離監控,廣泛應用于大型工廠、森林和煤礦等大空間和室外開放空間的火災探測。

    火焰具有明顯的視覺特征,傳統視頻火災探測算法通常根據火焰的顏色、形狀和紋理等靜態特征,以及閃爍頻率、面積增長、形態變化和移動方向等動態特征進行識別。CHEN T H等人[2]結合RGB色彩分割和火焰運動特性進行火焰像素的判定。KO B C[3]等人通過檢測運動區域和火焰顏色判斷來提取候選火焰區域,并對候選區域提取特征,用于訓練支持向量機SVM分類器,實現對火與非火的判定。MEI Z[4]等人通過幀間差分法和火焰顏色模型確定候選著火區域,然后提取火災候選區域特征組成的特征向量,用于訓練BP神經網絡模型來識別火災。候選區域的特征提取對后續分類器性能的好壞起到決定性的作用,傳統視頻火焰探測需要人工設計復雜的特征提取方法,在識別率和泛化性能上都有一定的局限性。

    深度學習為傳統自然語言處理、計算機視覺等領域帶來了革命性進步,也必然促進視頻火災探測技術獲得突破性進展。深度學習算法可自動提取圖像特征,克服了傳統視頻火災探測需依靠人工經驗提取特征的缺陷。FRIZZI S等人[5]訓練了9層網絡結構的卷積神經網絡,實現了火災的識別。SON G等人[6]用AlexNet作為基礎架構,訓練了火災分類模型。WU H等人[7]分別訓練了區域檢測網絡和區域分類網絡,實現對火災的判定。上述方法都直接在原始圖片上使用卷積神經網絡進行特征提取,這樣大量的無關特征也將被傳入全連接網絡進行訓練,使得分類性能不佳。

    通常,火焰只占據圖像的一部分,可首先提取火焰疑似區域,再將疑似區域傳入深度學習模型進行特征提取和精確識別。通過結合傳統方法和深度學習算法的優點,提出一種基于深度學習的視頻火焰識別方法。

    本文的主要工作如下:

    (1)利用改進的五幀差法和自適應混合高斯混合建模法(Adaptive Gaussian Mixture Model,AGMM)進行運動目標提取,并結合RGB-HSV混合顏色空間模型,提取疑似火焰區域。

    (2)制作火與類火數據集,訓練AlexNet卷積神經網絡模型對疑似火焰區域進行精確識別。

    (3)在實際數據上進行測試,并與文獻中其他算法進行對比,以評價算法的召回率、準確率和誤報率。




本文詳細內容請下載:http://m.rjjo.cn/resource/share/2000003226




作者信息:

蔡春兵,吳翠平,徐鯤鵬

(中國礦業大學(北京) 化學與環境工程學院,北京100083)

此內容為AET網站原創,未經授權禁止轉載。
主站蜘蛛池模板: 成人在线综合 | 亚洲精品国产福利一区二区三区 | 青青爽国产手机在线观看免费 | 欧美透逼视频 | 亚洲精品第一国产综合野 | 爽爽爽爽爽爽a成人免费视频 | 亚洲专区欧美专区 | 亚洲一区二区精品 | 日韩在线观看一区 | 毛片免费在线观看 | 精品视频网 | 9久久免费国产精品特黄 | 精品欧美成人高清视频在线观看 | 九九在线偷拍视频在线播放 | 亚洲mm8成为人影院 亚洲m男在线中文字幕 | 国产精品一国产精品免费 | 亚洲一区二区三区四区 | 最新主播福利视频在线观看 | a级片在线| 欧美一级片免费观看 | 久久精品一区二区三区中文字幕 | 国产日韩亚洲不卡高清在线观看 | a一级毛片视频免费看 | 男女免费观看在线爽爽爽视频 | 亚洲国产高清人在线 | 综合在线播放 | 国内一级特黄女人精品片 | 国产欧美在线视频 | 色综合久久久高清综合久久久 | 亚洲免费色视频 | 国产一级二级三级视频 | 久久国产视频在线观看 | 欧美精品毛片 | 欧美日韩一级黄色片 | 日本成本人片 | 美国一级毛片片aa免 | 日本韩国一级片 | 97青娱国产盛宴精品视频 | 亚洲欧美日本人成在线观看 | 欧美一级毛片一免费 | 欧美日韩国产亚洲综合不卡 |