郭俊,王平
(西华大学 电气与电子信息学院,四川 成都610039)
摘要:提出了一种改进的混合高斯背景模型方法,克服了传统混合高斯背景建模方法计算时间长的缺点。通过对视频图像中运动目标区域进行背景建模,减小了每一帧的背景建模区域,同时在提取运动目标区域前先对初提取的前景目标进行中值滤波,减小运动目标区域的范围,进一步压缩了背景建模的时间。最后通过与时间平均背景建模和传统混合高斯背景建模方法进行比较,验证了本文算法的高效性。
关键词:运动目标检测;运动目标区域;背景减除法;混合高斯背景模型
0引言
视频图像运动目标检测就是将运动目标从视频序列图像背景中分离出来,是运动目标识别与跟踪的基础[12]。其中图像序列中有运动目标经过的区域称为前景,其余部分为背景。高效而准确地检测并提取前景目标是视频图像运动目标分析技术的核心部分之一,也是计算机视觉和图像理解的热点和难点之一。
目前常用的检测算法有三种:帧差分法[3]、光流法[4]以及背景减除法[5]。帧差分法比较适用于分析简单场景,并且提取到的目标不完整,一般用来进行初提取工作;而光流法往往采用迭代法进行计算,且对光照、阴影等比较敏感,使用范围比较小;而背景减除法操作简单,建模方式多种多样,所以使用最为广泛。背景减除法将新一帧图像与所建立的背景模型进行比较,若相同位置的像素灰度值的差大于提前设置的阈值,则认为这个像素点来自于前景,否则是背景。而一幅图片中所有来自前景的坐标就构成了前景区域。背景减除法的核心技术在于背景模型的建立和更新,不同的背景建模方式产生的处理时间和处理效果各不相同。STAUFFER C等人提出的混合高斯背景建模方法[67]是目前较为成功的方法之一。它的理论依据在于不同的图片中相同坐标处的像素值必然服从于一个或者多个高斯分布,通过对每个坐标处建立几个高斯函数,能有效地建立一个具有很高鲁棒性的背景模型。当然由此也造成了该方法计算的复杂性。
本文通过减小背景建模区域来达到缩短检测时间的目的,通过帧差分法对运动前景区域进行初提取,通过膨胀和腐蚀等形态学操作[8]使离散的前景像素点合并为一块或者几块区域,然后对这些区域进行混合高斯背景建模,能较好地减小算法的计算量,同时也能达到同样的检测效果。
1传统混合高斯背景建模理论
参考文献[2]中使用M个高斯函数构成的混合高斯背景模型来表示一个坐标处像素在时间域上的概率分布,记t时刻坐标(x,y)处像素灰度值为ft(x,y),则坐标(x,y)处像素灰度值为ft(x,y)的概率P(ft)用式(1)表示:
式中M是高斯模型的个数,ωl为第l个高斯分布的权重,ηl(ft,μl,t,σl,t)是第l个高斯密度函数,用式(2)表示:
式中μl,t是该高斯分布的均值,σl,t是方差。
判定原则如下:对于待检测图片中的ft(x,y),求出能代表其背景分布的M个高斯函数,将这些函数按ω/σ值的大小排序,取比值大的前B个高斯函数组成该点背景的混合高斯模型,如果ft(x,y)与其该背景模型中的第k(k≤B)个高斯分布匹配,则认为该点是背景,否则为前景。匹配准则如下:
式中λ来自于经验。
背景更新:新一帧图像检测完成后,若ft(x,y)被认为来自于前景,也就是说该点对应模型的前B个高斯分布中没有一个与之匹配,则用一个新的高斯分布来替换ω/σ值最小的那个分布,其均值为ft(x,y),并赋予一个较大的方差和较小的权重。
参数更新:
与ft(x,y)匹配的高斯函数按下式更新:
图3对视频ccbr.avi进行的算法仿真结果图不能与ft(x,y)匹配的高斯函数按下式更新:
ω′l(x,y)=(1-α)ωl(x,y)(7)
然后归一化权值。式中α、ρ为学习速度,来自于经验。
2改进的混合高斯背景建模
需要检测的视频里面每一帧图像只有部分区域中存在运动目标,常用的混合高斯背景模型都是对整幅图像进行背景建模,其中很大一部分是没有必要的,本文则是提前将视频图像中有运动前景的区域提取出来并通过膨胀和腐蚀操作确保提取的前景区域一定包括了运动前景,然后对运动前景区域进行混合高斯背景建模,进而提取出运动前景。
提取运动前景区域采用帧差法,其包括两帧帧差法和三帧帧差法,其中三帧帧差法提取到的只有运动前景的一部分,比较之下,本文采用两帧帧差法提取,并通过形态学操作,得到运动前景区域,通过C4模块进行存储,然后利用混合高斯背景建模模块,只对提取出的前景区域进行处理,得到运动前景。改进的基于混合高斯背景建模的运动目标检测的设计流程图如图1所示。
首先记t时刻和t+1时刻输入的连续两帧图像分别为x和y,灰度化处理分别记为m和n,然后将m和n数据类型转化为双精度型,并存储到q和w中,记c(i,j)=|q(i,j)-w(i,j)|,根据c(i,j)与设置的阈值th比较分析,判断该像素点是前景还是背景。整幅图片处理完成后即得到初提取的前景二值图像C,对图像C采用3×3中值滤波[6]处理,然后进行膨胀和闭运算操作,得到初提取的前景区域C3,并最终将前景区域信息存储到文件C4中,即完成了对运动目标区域的提取操作。然后混合高斯背景建模模块对原始视频的C4前景区域进行背景建模,最终完成对前景图像的准确提取。
3结果分析
本实验采用MATLAB 2014a进行编程,并在Inter 3.4 GHz处理器、4 GB内存的PC上进行仿真,使用的视频速率为20帧/s,原始经典混合高斯背景建模和改进后的混合高斯背景建模所选高斯函数均为4个,初始标准差为6,前景阈值th=λσk,λ=2.5,学习率α=0.01,方差学习率ρ=0.03。视频首先经过C4区域提取模块,提取出运动目标区域,然后背景建模模块通过对C4区域进行前景提取,最后检测出运动前景二值图像[9],并将结果由四个输出视频(原始视频、灰度处理视频、前景区域视频和前景二值图像视频)显示出来。本文实验共采用了三种方法进行仿真模拟:时间平均模型法[1]、混合高斯模型法以及本文所介绍方法,对复杂背景视频Traffic.avi和简单背景视频ccbr.avi进行了处理,图2和图3分别是选择Traffic.avi的第175帧图像和ccbr.avi的第50帧进行算法仿真的结果从图中可以看出,本实验完全能达到混合高斯模型的效果,而从表1的分析数据可以看出,本实验所用时间远远小于传统的混合高斯背景建模法。
从实验数据可以看出,通过对运动物体运动区域的提取来进行混合高斯背景建模可以有效缩短前景提取时间,而且越是简单的背景,节约的处理时间越明显。
4结论
本文为了克服传统混合高斯模型方法计算量大的缺点,提出了对运动目标所在区域建立背景模型的方法,通过与时间平均模型和混合高斯模型进行实验仿真对比,结果证明了本文所用方法的有效性。
参考文献
[1] 赵春晖,潘泉,梁彦,等.视频图像运动目标分析[M]. 北京:国防工业出版社, 2011.
[2] 杜文略,刘建梁,沈三民,等.基于FPGA的运动目标检测系统设计[J].电子技术应用,2014,40(11):3638,42.
[3] LIPON A, FUJIYOSHI H,PATIL R. Moving target classification and tracking from real time video [C].Proceedings of IEEE Workshop Applications of Computer Vision,Los Alamitos,CA,1998:814.
[4] BROX T, BRUHN A, PAPENBERG N, et al. High accuracy optical flow estimation based on a theory for warping[C]. Proceedings of 8th European Conference on Computer Vision, 2004:2536.