人脸识别(Face Recognition):对图像中的人脸进行检测、识别和跟踪。
一、技术流程详解
技术流程:
1、人脸采集
人脸采集主要关注以下因素
1)图像大小:人脸图像过小会影响识别效果,人脸图像过大会影响识别速度。非专业人脸识别摄像头常见规定的最小识别人脸像素为60*60或100*100以上。在规定的图像大小内,算法更容易提升准确率和召回率。图像大小反映在实际应用场景就是人脸离摄像头的距离。
2)图像分辨率:越低的图像分辨率越难识别。图像大小综合图像分辨率,直接影响摄像头识别距离。现4K摄像头看清人脸的最远距离是10米,7K摄像头是20米。
3)光照环境:过曝或过暗的光照环境都会影响人脸识别效果。可以从摄像头自带的功能补光或滤光平衡光照影响,也可以利用算法模型优化图像光线。
4)模糊程度:实际场景主要着力解决运动模糊,人脸相对于摄像头的移动经常会产生运动模糊。部分摄像头有抗模糊的功能,而在成本有限的情况下,考虑通过算法模型优化此问题。
5)遮挡程度:五官无遮挡、脸部边缘清晰的图像为最佳。而在实际场景中,很多人脸都会被帽子、眼镜、口罩等遮挡物遮挡,这部分数据需要根据算法要求决定是否留用训练。
6)采集角度:人脸相对于摄像头角度为正脸最佳。但实际场景中往往很难抓拍正脸。因此算法模型需训练包含左右侧人脸、上下侧人脸的数据。工业施工上摄像头安置的角度,需满足人脸与摄像头构成的角度在算法识别范围内的要求。
2、人脸检测(Face Detection)
人脸位置检测:
目的是在图像中准确标定出人脸的位置和大小。
人脸关键点检测(人脸对齐):
目的是自动估计人脸图片上脸部特征点的坐标
一般可以使用Openface中的Dlib模型实现人脸检测,利用OpenCV库对数据进行处理。最近人脸检测算法模型的流派包括三类及其之间的组合:viola-jones框架(性能一般速度尚可,适合移动端、嵌入式上使用),dpm(速度较慢),cnn(性能不错)。
人脸检测关注以下指标:
检测率:识别正确的人脸/图中所有的人脸。检测率越高,代表检测模型效果越好。
误检率:识别错误的人脸/识别出来的人脸。误检率越低,代表检测模型效果越好。
漏检率:未识别出来的人脸/图中所有的人脸。漏检率越低,代表检测模型效果越好。
速度:从采集图像完成到人脸检测完成的时间。时间约短,检测模型效果越好。
举一个实际例子说明:
在摄像头某张抓拍图像中,一共有7张人脸,算法检测出4张人脸,其中3张是真实人脸,1张是把路标误识为人脸。
在这个实际案例中:检测率=3/7 误检率=1/4 漏检率=(7-3)/7
3、图像预处理
图像预处理的目的是消除图像中无关的信息,尽可能去除或者减少光照、成像系统、外部环境等对图像的干扰,使它具有的特征能够在图像中明显地表现出来。主要过程包括人脸图像的光线补偿、灰度变换、直方图均衡化、归一化、几何校正、滤波以及锐化等。
1)灰度化:将彩色图像转化为灰色图像的过程。
2)直方图均衡化:直方图描述了一副图像的灰度级内容。直方图均衡化主要目的是为了提高对比度和灰度色调的变化,使图像更加清晰。
3)归一化:通过一系列变换,将待处理的原始图像转换成相应的唯一标准形式(该标准形式图像对平移、旋转、缩放等仿射变换具有不变特性),使得图像可以抵抗几何变化的攻击。例如用放大缩小图像、减少图片由于光照不均匀造成的干扰等。
4)中值滤波:将图片进行平滑操作以消除噪声。
预处理的效果直接影响到人脸识别率。可以通过不同方法,相同算法、相同训练模式评估模型效果,选择最佳的预处理方式。
4、人脸特征提取及人脸识别方法
传统的人脸识别模型一般都是在SVM等分类器分类后,通过CNN提取特征。
但随着深度学习的发展,人脸识别有更多端到端的框架选择。这里简单介绍一下三种近两年基于深度学习人脸识别的方法:Deep face、Deep ID、FaceNet
1)Deep face
a.Deep face 与其他方法最大的不同在于,DeepFace在训练神经网络前,使用了基于3D模型人脸对齐的方法。
b.使用深度神经网络学习特征
c.该模型在LFW数据集上取得了0.9735准确率
2)DeepID
DeepID有三代:DeepID、DeepID2、DeepID2+
DeepID2+对遮挡有很好的鲁棒性
有两种方式对人脸进行多种尺度的遮挡,第一种是从下往上进行遮挡,从10%-70%。第二种是不同大小的黑块随机放,黑块的大小从10×10到70×70。
结论是:遮挡在20%以内,块大小在30*30以下,Deep2+的输出向量的验证正确率几乎不变。
3)FaceNet
直接将人脸图像映射到欧几里得空间,空间的距离代表了人脸图像的相似性。该方法基于深度卷积神经网络。FaceNet得到人脸最终表示后不用像DeepID那样需要再训练模型进行分类,直接计算距离,效率很高。
它在LFW数据集上使用了两种模式:
直接取LFW图片的中间部分进行训练,
使用额外的人脸对齐工具,准确率为0.9963,超过DeepID。
当然基于深度学习的人脸识别方法还有很多种,比如baidu的方法等等。对这块有兴趣的朋友可以看看这篇文章:《基于深度学习的人脸识别技术综述》
5、人脸匹配与识别
将提取的人脸特征数据与数据库中储存的特征模板进行搜索匹配,设定一个最佳的相似度阈值,当相似度超过该阈值,则输出匹配后的结果。
最佳相似度阈值的决定需要考虑到输出结果的正确率和数量。假设1000张样本图片里,共600张正样本。相似度为0.9的图片一共100张,其中正样本为99张。虽然0.9阈值的正确率很高,为99/100;但是0.9阈值正确输出的数量确很少,只有99/600。这样很容易发生漏识的情况。
有的同学可能很快就通过这个场景联想到精确率和召回率的概念,是的,这也是需要应用精确率和召回率的实际评估场景之一。这里再解释一下精确率和召回率:
精确率(precision):识别为正确的样本数/识别出来的样本数=99/100
召回率(recall):识别为正确的样本数/所有样本中正确的数=99/600
(图by@mousever)
只有当选择的阈值实现:a.阈值以上结果的精确率极高;b.阈值以上结果的召回率极高。这个阈值才是在该算法模型下最佳阈值。
除精确率和召回率值得关注外,误报率(False Alarm)也是非常重要的指标。家用家用机器人/摄像头,可能会常开人脸检测,误报会非常影响用户体验(比如,没有异常情况但频繁报警提示)。因此误报率会是这类场景的重要指标。
另外在这一个识别的步骤中,产品还需要确定具体输出的需求点是人脸认证还是人脸识别
1)人脸认证:一对一的匹配过程,解决“这是否为某人”的问题。系统需先找出已储存的对象信息,再将待认证的信息与前者对比核对,从而判定接受或拒绝待认证的身份。
常见的应用场景:例如移动支付认证、安全性身份核对等。
产品在系统设计的逻辑上,需要先考虑调取已储存对象信息的先验条件。通过界面/语音的提示,使得待认证者预先知道自己正处于被核对的过程中,且已预先了解拟核对对象的身份。
2)人脸比对:一对多的匹配过程,解决“这是谁”的问题。系统将待识别人脸图像的特征值与数据库中存储的所有已知身份的对象的特征值进行比较,来确定待识别者的身份。
常见的应用场景:人脸开门、人脸检索等。
产品在本需求的设计上,需要考虑系统的实时性和架构方案的不同对产品逻辑的影响。例如人脸开门常见架构是跨互联网和局域网的,人脸检索常见架构是在某一个局域网(互联网)下的。
a.人脸开门等跨网方案需要关注的因素
远程算法更新:远程算法更新必然会造成本地局域网功能暂时性无法使用。因此远程算法更新的频率、时间、更新效果都需要产品在更新前精确评估。
增删改人脸数据与本地数据的同步:本地局域网和互联网是无法直接交互的,因此用户在互联网一旦对人脸数据库进行增删改的操作,下发程序的稳定性和及时性都需要重点关注。
硬件环境:本地存储空间的大小和GPU直接影响到本地识别的速度。服务器的稳定性影响到功能地正常使用。
守护程序:断电等外置情况意外情况发生又被处理完善后,程序能自动恢复正常。
b.人脸检索等某一局域网(互联网)方案需要关注的因素
速度:除了算法识别需要消耗一定时间外,该局域网下的网速会影响到识别结果输出的速度。
数据库架构:通过检索结果关联结构化数据。
阈值的可配置性:在界面设置阈值功能,从产品层面输入阈值后,改变相对应的结果输出。
输出结果排序:根据相似度排序或结构化数据排序内容地抉择
云服务的稳定性。
二、与人脸识别相关的其他CV内容
1、人脸表情识别(Face expression recognition 简称FER)
人脸表情识别的一般步骤:图片获取、图像预处理(主要有图片归一化、人脸检测与定位)、特征提取及表情分类。
现普遍认为人类主要有六种基本情感:愤怒(anger)、高兴(happiness)、悲伤(sadness)、惊讶(surprise)、厌恶(disgust)、恐惧(fear)。而大多数表情识别是基于这六种情感及其拓展情绪实现的,目前主要困难点是:
表情的精细化程度划分:每种情绪最微弱的表现是否需要被分类。分类的界限需要产品给出评估规则。
表情类别的多样化:是否还需要补充其他类别的情绪,六种情绪在一些场景下远不能变现人类的真实情绪。因此除了基本表情识别外,还有精细表情识别、混合表情识别、非基本表情识别等细致领域的研究。
缺少鲁棒性
2、人脸性别识别
性别分类是一个典型的二类问题,人脸性别分类问题需要解决的两个关键问题是人脸特征提取和分类器的选择。
人脸性别识别其实仅能识别到人脸外貌更偏向于女性还是男性,很难对女生男相、男生女相进行正确判断。产品需制定合理的性别划分规则。
3、人脸年龄识别
年龄识别的难度在于单人的不同年龄段识别和多人的不同年龄段识别,人脸年龄识别常和人脸识别进行组合识别,能更正确的判断在一定年限内“是否是一个人”的问题。
识别年龄无变化的人脸用分类即可,而对年龄变化的人脸识别方法是通过年龄模拟,将测试图像和查询库中的图像变换到某一共同的年年龄,从而去除年龄不同的影响,使识别在年龄相同的人脸图像进行。
除了以上内容,还有是否戴眼镜、头发长度、肤色等等方向,产品可根据需求对算法提出不同的组合类别。值得强调的是,随着行业的深入,我们会发现单纯的人脸识别并不能满足实际应用场景的需求,比如在安防行业或者金融领域,活体技术(如何验证目前的人是真人而不是照片或视频)和防欺诈技术才是戳中用户痛点的、更本质的关键。人脸识别技术和多个技术相互结合,是现在场景中运用得比较广泛的方案。
三、补充说明
1、测试环境说明
例如:
CPU:Intel(R) Core(TM) i7-4790 CPU @ 3.60 GHz
内存:8GB
系统:Ubuntu 14.04 x86_64/Windows 7 SP1 64bit
GCC版本:4.8.2
注:以上测试环境是PC,也可以在手机上。
2、需要说明测试集是什么,或者图片要求(比如“图片包含人脸大小应超过96*96像素)
a.经典人脸身份识别测试集LFW(LFW benchmark http://vis-www.cs.umass.edu/lfw/ )共包含13233 张图片 5749 种不同身份;世界记录99.7%。
b.CK+一个是人脸表情数据集(CK+,Extended Cohn-Kanade Dataset,http://www.pitt.edu/~emotion/ck-spread.htm ),包含固定表情和自发表情,包含123个人的593个表情序列。每个序列的目标表情被FACS编码,同时添加了已验证的情感标签(生气、厌恶、害怕、快乐、悲伤、惊讶)。
3、需要说明“�