文献标识码:A
文章编号: 0258-7998(2015)05-0152-04
0 引言
人脸识别是重要的生物特征识别技术之一,目前人脸识别已经取得了重大的进展,鲁棒的主成分分析[1]、基于Gabor特征的鲁棒稀疏编码算法[2]、迭代加权的正规化鲁棒编码算法[3]和两级非负稀疏表示方法[4]等一系列新算法已成功应用于人脸识别,随之得到的产物也被应用在公共信息安全、金融等领域。然而,在人脸识别领域中仍有许多难题,例如光照问题一直是影响图像质量的关键因素之一。
近年来,研究者们提出了各种预处理算法来解决人脸识别中的光照问题。直方图均衡化[5]、边缘图[6]和利用小波变换方法[7]提取光照不变特征,虽然能满足实时要求,但是大部分不能解决阴影问题,难以取得理想效果。光照补偿字典[8]的提出取得了很好的光照处理效果,但是该方法需要严格光照控制下的训练图像。Retinex理论中的单尺度Retinex算法(SSR)、多尺度Retinex算法(MSR)和自商图像(SQI)[9]得到广泛应用。这些Retinex算法的共同优点是不需要特定光照条件下的训练样本,在无强侧光照时有较高的识别率,但在复杂光照条件下会出现阴影、光晕等现象。
针对此情况,本文提出一种简单易行的新的光照预处理算法,该方法考虑自适应平滑Retinex算法能很好地平滑光照人脸图像且无边缘增强效应,结合局部对比度增强算法对于增强图像细节的优点,采用基于标准差
的融合方法,将分别由改进的自适应平滑Retinex算法处理和局部对比度增强处理后的两幅图像进行融合。在Yale B人脸库上的实验表明,该算法具有光照无关性,而且每一类只需要一个训练样本,在训练样本光照环境较差情况下也能取得较好的识别率。
1 改进的人脸识别算法
1.1 改进的的自适应平滑Retinex算法(IAS)
为了解决Retinex算法容易出现光晕和虚影现象的难题,选用改进的自适应平滑算法[10]进行光照估计,主要原理是用一个3×3的模板反复迭代卷积平滑原图像,迭代前L(0)(x,y)=I(x,y),即第t+1次迭代估计出的光照分量公式描述如下:
其中,N(t)(x,y)是规范化因子;w(t)(x,y)是模板的系数,反映了每个点的灰度变化情况,是决定平滑效果的关键参数;g表示传导函数,它是非负且单调递减的函数,g(d(t)(x,y))随着d(t)(x,y)的增大而趋向于0,传导函数的性质决定了算法的平滑效果;d(t)(x,y)代表每个像素的变化程度。
一般地,传导函数在平滑的过程中会引起边不同程度的边缘锐化效应[10]。为了能同时达到平滑图像且保证无边缘增强效应的效果,本文采用新的传导函数:
τ(x,y)反映了当前像素点与其邻域的不一致性程度。?赘代表像素点I(x,y)的邻域,通常选取3×3;I(m,n)代表邻域Ω的坐标。参数k1、k2的选择参照文献[10]。自适应平滑模板的系数为:
将w(x,y)代入式(1)和式(3)中,得到亮度分量L,代入Retinex算法中R(x,y)=log(I(x,y))-log(L(x,y))做对数域的减运算,便得到具有光照不变特征的反射分量R。
1.2 局部对比度增强算法(LCE)
一般地,直方图均衡化仅从整体角度改变数据的分布,不能有效突出图像的细节特征。而LCE算法可以很好地改善图像的细节特征的可视化,局部对比度增强变换的公式如下:
本文选取5×5的邻域,N是邻域的像素总和。经过对比度增强变换,图像数据的动态范围被压缩,由上述测量得到的局部对比值可正可负,所以需要对数据进行归一化。假设Ymax和Ymin分别是所有局部对比值中的最大值和最小值,像素点(m,n)处的局部值进一步正规化为:
1.3 基于标准差融合的新的光照无关算法
图1所示为Yale B人脸库中5种光照条件下的人脸经不同方法处理后的效果图。IAS算法处理后的图像无阴影误增强及虚影的现象,但图像泛白严重,局部对比度减弱;LCE算法处理后的图像增强了局部图像细节,但对阴影的处理效果不佳。从以上分析可知,有必要寻求一种鲁棒性强的人脸图像光照预处理算法,既能兼顾上述算法的可取之处,又能巧妙地避免它们单独使用的不足。
图像融合的特点正是通过一定的算法将两个或两个以上的图像数据结合在一起,生成一个新的图像。新图像可以兼取多个原始图像的信息优势,并能描述所研究对象的较优化的信息特征。本文中的IAS算法对复杂光照环境下的人脸处理效果得到有效提高,但图像仍然存在泛白、局部对比度减弱等缺点。与IAS算法相比,LCE算法可改善这些不足,有必要寻找一个合适的方法,将分别经过两者处理的图像尽可能和谐地融合在一起。由于两个效果图具有相同的内容,可以认为两个分支的算法处理是相同的像素对应的灰度值映射到不同的区域,而对于整幅图像的分布仍然类似。因此,只要找到合适的权重系数,就可以得到优良的融合结果。标准差(SD)描述每个像素灰度值与平均灰度值的离散程度,SD越大,则图像的灰度值越离散,包含的信息越多。可以采用基于SD的加权平均方法计算融合的权重系数。假设p(i,j)表示点(i,j)处的灰度值,图像I大小为M×N,则SD为:
1.4 算法流程
综上所述,本文算法的步骤为:
(1)把Retinex算法经过改进,得到IAS预处理算法,原图像I经过IAS算法处理,得到 ILAS;
(2)将原图像I经过LCE算法进行处理,得到 ILCE;
(3)分别计算 ILAS和ILCE的标准差sd1和sd2,得到加权融合系数ω1和ω2,通过融合算法得到最终的光照无关人脸图像F;
(4)把最终的预处理结果用稀疏表示进行分类识别。
图1(d)为Yale B人脸库中5种光照条件下的人脸经融合IAS和LCE两种方法处理后的图像,这些图像清晰度高,特性明显,有效去除光照,在光照变化剧烈情况下也能得到清晰的人脸图像。
2 实验结果及分析
在识别实验中,识别算法采用基于稀疏表示的分类(SRC)算法。为了验证本文方法的有效性,选用Yale B人脸数据库进行实验仿真。由于本文只考虑光照问题,故只选择10个个体的一种姿态在64种光照下的640幅图像进行实验。根据光源与镜头成的角度的不同将样本分为5个集合[8]:0~12°为集合1,12~25°为集合2,25~50°为集合3,50~110°为集合4,其余为集合5。实验中,所有图像大小取84×84,训练集为每人一幅均匀光照下的人脸,5个子集分别为测试样本。
2.1 特征维数选择
由于图像维数太大,需要对图像进行降维,本文实验中采用二维主成分分析(2D-PCA)对图像进行特征提取。取每人一幅均匀光照下的人脸作为训练集,其他作为测试集,维数d和识别率的关系如图2所示。特征维数d在一定范围内增加有利于提高识别率,但当d超过一定值时识别率不再增加,而且特征维数的加大将会导致计算量的增加。本文选择特征维数为18。
2.2 光照鲁棒性实验
为了验证本文算法对光照的鲁棒性,除了与融合前的IAS和LCE算法对比,本文还和其他几种常用的光照正规化方法相比较:SSR、MSR和SQI。实验采用每人一幅均匀光照下的人脸作为训练集,5个光照剧烈程度不一的子集分别作为测试集,识别结果如表1所示。从表1可看出,对于光照变化较平和的人脸(前3个子集),单独使用IAS和LCE算法可以取得较好的识别率,但当测试样本有剧烈的光照变化时(子集4和5),IAS和LCE算法的识别率都有较大幅度的下降,而对于融合后的新算法不管光照变化如何,都能得到较高的识别率。同时可以注意到,一般的光照正规化预处理算法在光照恶劣条件下识别率迅速退化。
为了进一步验证本文融合算法对于光照的鲁棒性,将文献[8]中提出的人脸光照补偿字典算法在Yale B人脸库中进行测试,结果如表2所示。本文提出的算法具有更高的识别率,进一步证实了本算法对光照变化具有较好的鲁棒性,同时由于节省了KSVD训练字典的复杂步骤,所以相对于文献[8]在时间上也有一定的优势。
为了保证实验结果不依赖于某种特定的训练数据,分别从子集2~5中选择训练样本并计算识别率,共进行4组实验,实验结果如图3所示。图3(a)为从子集2选择每人一幅图像作为训练集,以此类推。结果表明IAS和LCE算法略优于其他光照纠正方法,而本文融合后的识别率始终最高,这进一步表明本文提出的算法有较强的光照鲁棒性。
3 结论
本文针对光照变化影响人脸图像的视觉效果以及识别率降低的问题,提出了一种基于融合IAS和LCE算法的光照无关人脸预处理算法。该算法采用基于标准差的融合方法将IAS算法和LCE算法相结合,在有效克服各自缺陷的同时兼顾了它们的优点。实验结果表明,该算法与结合前的单一预处理算法、SSR、MSR、SQI以及文献[8]中的算法相比,具有更好的光照纠正效果,并且有效地提高了光照复杂环境下的人脸识别率。
参考文献
[1] LUAN X,FANG B,LIU L,et al.Extracting sparse error of robust PCA for face recognition in the presence of varying illumination and occlusion[J].Pattern Recognition,2014,47(2):495-508.
[2] YANG M,ZHANG L,SHIU S C K,et al.Gabor feature based robust representation and classification for face recog nition with Gabor occlusion dictionary[J].Pattern Recognition,2013,46(7):1865-1878.
[3] YANG M,ZHANG L,YANG J,et al.Regularized robust coding for face recognition[J].Image Processing,IEEE Transactions on,2013,22(5):1753-1766.
[4] HE R,ZHENG W S,HU B G,et al.Two-stage nonnegative sparse representation for large-scale face recognition[J].Neural Networks and Learning Systems,IEEE Transactions on,2013,24(1):35-46.
[5] RAMIREZ-GUTIERREZ K,CRUZ-PEREZ D,OLIVARESMERCADO J,et al.A face recognition algorithm using eigenphases and histogram equalization[J].International Journal of Computers,2011,5(1):34-41.
[6] KARANDE K J,TALBAR S N.Independent component analysis of edge information for face recognition[M].Springer,2014.
[7] WU F.Face recognition based on wavelet transform and regional directional weighted local binary pattern[J].Journal of Multimedia,2014,9(8):1017-1023.
[8] LI Y,MENG L,FENG J.Face illumination compensation dictionary[J].Neurocomputing,2013(101):139-148.
[9] BIGLARI M,MIRZAEI F,EBRAHIMPOUR-KOMEH H.Illumination invariant face recognition using SQI and weighted LBP histogram[C].Pattern Recognition and Image Analysis(PRIA),2013 First Iranian Conference on.IEEE,2013:1-7.
[10] 葛微,李桂菊,程宇奇,等.利用改进的Retinex进行人脸图像光照处理[J].光学精密工程,2010,18(4):1011-1020.