qq人脸识别

更新时间:2023-03-04 12:44:34 阅读: 评论:0

最好听的流行歌曲-暗八卦

qq人脸识别
2023年3月4日发(作者:怎么给u盘改名字)

2020⁃03⁃10

计算机应用,

JournalofComputerApplications

2020,40(3):704-709

ISSN1001⁃9081

CODENJYIIDU

http://

基于深度学习的轻量级和多姿态人脸识别方法

龚锐

1,2*

,丁胜

1,2,3

,章超华

1,2

,苏浩

1,2

(1.武汉科技大学计算机科学与技术学院,武汉430065;2.智能信息处理与实时工业系统湖北省重点实验室(武汉科技大学),

武汉430065;3.福建省大数据管理新技术与知识工程重点实验室(泉州师范大学),福建泉州362000)

(∗通信作者电子邮箱516123131@)

摘要:目前基于深度学习的人脸识别方法存在识别模型参数量大、特征提取速度慢的问题,而且现有人脸数据

集姿态单一,在实际人脸识别任务中无法取得好的识别效果。针对这一问题建立了一种多姿态人脸数据集,并提出

了一种轻量级的多姿态人脸识别方法。首先,使用多任务级联卷积神经网络(MTCNN)算法进行人脸检测,并且使用MTCNN最后包含的高层特征做人脸跟踪;然后,根据检测到的人脸关键点位置来判断人脸姿态,通过损失函数为

ArcFace的神经网络提取当前人脸特征,并将当前人脸特征与相应姿态的人脸数据库中的人脸特征比对得到人脸识

别结果。实验结果表明,提出方法在多姿态人脸数据集上准确率为96.25%,相较于单一姿态的人脸数据集,准确率

提升了2.67%,所提方法能够有效提高识别准确率。

关键词:深度学习;人脸识别;多姿态;轻量级;多任务级联卷积神经网络;ArcFace

中图分类号:TP183文献标志码:A

Lightweightandmulti-pofacerecognitionmethodbadondeeplearning

GONGRui1,2*

,DINGSheng

1,2,3

,ZHANGChaohua

1,2

,SUHao

1,2

(eofComputerScienceandTechnology,WuhanUniversityofScienceandTechnology,WuhanHubei430065,China;rovincialKeyLaboratoryofIntelligentInformationProcessingandReal-timeIndustrialSystem(WuhanUniversityofScienceandTechnology),

WuhanHubei430065,China;

ProvincialKeyLaboratoryofDataIntensiveComputing(QuanzhouNormalUniversity),QuanzhouFujian362000,China)

Abstract:Atprent,thefacerecognitionmethodsbadondeeplearninghavetheproblemsoflargemodelparameter

sizeandslowfeatureextractionspeed,andtheexistingfacedatatshavetheproblemofsinglepo,whichcannotachieve

atthisproblem,amulti-pofacedatatwastablished,

y,theMTCNN(Multi-Taskcascaded

ConvolutionalNeuralNetwork)algorithmwasudbythemethodforfacedetection,andthehigh-levelfeaturesincludedin

,thefacepowasjudgedaccordingtothepositionsofthe

detectedfacekeypoints,thecurrentfacefeatureswereextractedbytheneuralnetworkwithArcFaceaslossfunction,and

thecurrentfacefeatureswerecomparedwiththefacefeaturesofthecorrespondingpointhefacedatabatoobtaintheface

erimentalresultsshowthattheaccuracyofthepropodmethodis96.25%onthemulti-poface

datat,whichis2.67%sthatthepropodmulti-poface

recognitionmethodcaneffectivelyimprovetherecognitionaccuracy.

Keywords:deeplearning;facerecognition;multi-po;lightweight;Multi-TaskcascadedConvolutionalNeural

Network(MTCNN);ArcFace

0引言

人脸识别是基于人的脸部特征信息进行身份验证的一种

生物识别技术,通过带有摄像头的终端设备拍摄人的行为图

像,使用人脸检测算法,从原始行为图像中得到人脸区域,用

特征提取算法提取人脸的特征,并根据这些特征确认身份。

传统的人脸识别方法包含主成分分析(PrincipalComponentAnalysis,PCA)[1]、拉普拉斯特征映射[2]、局部保持映射

(LocalityPrervingProjection,LPP)[3]、稀疏表示[4]等。这些

传统人脸识别算法在提取特征时,往往是通过人工手段去获

取样本特征,而人为设定的特征在特征提取和识别过程存在

提取特征过程复杂、识别效率低等不足,而且受人脸的姿态转

动、光照变化、遮挡等复杂场景下影响较大,这些方法所使用

的特征属于浅层特征,不能从原始图像中获取本征的高层语

义特征。

自2012年AlexNet在ImageNet[5]比赛上取得冠军后,卷积

文章编号:1001-9081(2020)03-0704-06DOI:10.11772/.1001-9081.2019071272

收稿日期:2019⁃07⁃22;修回日期:2019⁃09⁃26;录用日期:2019⁃09⁃26。

基金项目:福建省大数据管理新技术与知识工程重点实验室开放课题(BD201805)。

作者简介:龚锐(1995—),男,湖北赤壁人,硕士研究生,主要研究方向:深度学习、计算机视觉;丁胜(1975—),男,湖北武汉人,副教授,博士,CCF会员,主要研究方向:计算机视觉;章超华(1996—),男,江西抚州人,硕士研究生,主要研究方向:深度学习、计算机视觉;苏浩(1996—),

男,湖北武汉人,硕士研究生,主要研究方向:迁移学习、计算机视觉。

第3期龚锐等:基于深度学习的轻量级和多姿态人脸识别方法

神经网络愈发火热。随着VGGNet(VisualGeometryGroupNetworks[6]、GoogleNe[7]和ResNet(ResidualNeuralNetworks)[8]

的相继提出,深度卷积神经网络将多个计算机视觉任务的性

能提升到了新的高度,总体的趋势是为了达到更高的准确性

构建了更深更复杂的网络。人脸识别作为一种重要的身份认

证技术,被应用于越来越多的移动端和嵌入式设备上,如设备

解锁、应用登录、刷脸支付等。由于移动设备计算能力以及存

储空间的限制,部署在移动设备上的人脸识别模型要满足准

确率高、模型小、特征提取速度快的条件,这些大型网络在尺

度和速度上不能满足移动设备的要求。MobileNetV1[9]提出了

深度可分离卷积(depthwiparableconvolutions),将标准卷

积分解成深度卷积和逐点卷积,大幅度地降低了参数量和计

算量。ShuffleNet[10]使用分组逐点卷积(grouppointwiconvolution),通过将卷积运算的输入限制在每个组内,显著地

减少了计算量,再使用通道打乱(channelshuffle)操作,解决了

分组卷积中不同组间信息不流通的问题。MobileFaceNet[11]从

感受野的角度,分析了人脸识别任务中全局平均池化的缺点,

使用全局深度卷积代替。

此外,人脸图像较大的类内变化和较小的类间差异是人

脸识别任务的一个困难点。由于人脸的角度、光照、表情、年

龄、化妆、遮挡、图片质量等变化,同一个人的不同人脸图像具

有很大差异,如何让计算机在较大的类内变化的干扰下依然

能够辨识到比较微弱的类间变化,是人脸识别的主要挑战。

人脸识别要从两个方向优化:一是增加不同人之间的距离(类

间距离);二是降低同一个人在不同人脸图像上的距离(类内

距离)。基于度量学习的TripletLoss[12]的目标是使同类样本

之间的距离尽可能缩小,不同类样本之间的距离尽可能放大。CenterLoss[13]提出为每一个类提供一个类别中心,并最小化

每个样本与该中心的距离。二者都是基于SoftmaxLoss的,存

在不足。后来出现的损失函数SphereFace[14]、CosFace(LargeMarginCosineLoss)[15]和ArcFace(AdditiveAngularMarginLoss)[16]从根本上改进,要求扩大分类面之间的margin,增强Softmax损失函数的判别能力,能够较好地满足增大类间距

离、减小类内距离的要求。1多姿态人脸数据集

现有的深度学习方法是将对齐后的人脸图像通过深层网

络提取人脸特征,由于忽略了人脸的姿态特征,因而导致识别

精度不够高。针对这个问题,本文建立了一个多姿态的人脸

数据集,如图1所示。

图1多姿态人脸数据集Fig.1Multi-pofacedatat

该数据集由800名志愿者每人5张人脸图像(5个姿态,

分别为正脸、左侧脸、右侧脸、抬头、低头)组成,共4000张。

采集过程为:在光照条件良好的环境下放置摄像头,通过多任

务级联卷积神经网络(Multi-TaskcascadedConvolutionalNeuralNetwork,MTCNN)[17]算法对视频流进行人脸检测,根

据检测到的人脸关键点(左右眼、鼻尖、左右嘴角)判断人脸姿

态,判断方法见1.3节,采集完5个姿态后将对齐后的5张图

像缩放到112×112大小,保存起来,同时记录对应人脸的姓名

年龄性别作为人脸识别的标签。1.1MTCNN算法

MTCNN算法用于人脸检测任务,采用三个级联的网络P-

Net(ProposalNetwork)、R-Net(RefineNetwork)和O-Net

(OutputNetwork)由粗到细,通过减少滤波器数量、设置小的

卷积核和增加网络结构的深度,在较短的时间内获得很好的

性能,在光照变化、部分遮挡和人脸转动等情况下也能得到很

好的人脸检测结果。

1.2人脸对齐

MTCNN算法可以检测出人脸在图像中的位置,同时还能

检测人脸关键点。人脸关键点可以用来做人脸对齐,将不同

角度的人脸对齐后有利于人脸识别,人脸对齐步骤如图3所

示。根据左右眼睛和鼻子的位置,通过仿射变换,将人脸对

齐,并裁剪缩放到112×112。

1.3人脸姿态判断

MTCNN算法检测的原图和检测后关键点位置如图4所

示。本文使用左右眼、鼻尖和左嘴角这四个关键点判断人脸

姿态方向,记左眼坐标为(x

1

,y

1

),右眼坐标为(x

2

,y

2),鼻尖坐

标为(x

3

,y

3),左嘴角坐标为(x4

,y

4)。以正脸图为基准,从横轴

看,鼻尖近似在左右眼坐标中心;从纵轴看,鼻尖近似在左眼

和左嘴角坐标中心,因此满足如下式子:

ì

í

î

(x1+x2)/2≈x3(y1+y4)/2≈y3

同理,当前人脸图像是左侧脸图的条件是:

ì

í

î

(x1+x2)/2=x3+D;D>0

(y1+y4)/2≈y3

当前人脸图像是右侧脸图的条件是:

ì

í

î

(x1+x2)/2+D=x3

;D>0(y1+y4)/2≈y3

当前人脸图像是低头图的条件是:

图2MTCNN算法流程Fig.2FlowchartofMTCNNalgorithm

图3人脸对齐Fig.3Facealignment

705

第40卷

计算机应用

ì

í

î

(x1+x2)/2≈x3(y1+y4)/2+D≈y3

;D>0

当前人脸图像是抬头图的条件是:

ì

í

î

(x1+x2)/2≈x3(y1+y4)/2≈y3+D;D>0

在上面4个式子中,D是一个大于0的值,表示中心点与

鼻尖的横轴距离或纵轴距离,在本实验中取值为10,即中心pixel点与鼻尖距离相差10px(pixel)就算满足条件。

2主要方法

2.1特征提取网络

文献[18]提出了一种高效网络模块,如图5所示,在本文

中记为mainblock。本文结合ShuffleNetV2的优点对MobileFaceNet进行了改进,改进后的网络结构如表1所示,改

进后的网络记为ShuffleMNet。

在网络的开始先使用步长为2的卷积核对输入进行下采

样,再接上多个mainblock模块得到7×7的特征图,使用全局

深度卷积(GlobalDepthwiConvolution,GDC)取代全局平均

池化(GlobalAveragePooling,GAP)得到1×1的特征图,最后

接上一个全连接层得到128维特征向量。

每个mainblock模块先对输入进行1次如图5(b)所示的

步长为2的下采样,之后重复n-1次图5(a)所示的操作。图5

(a)中首先对输入进行通道分割(ChannelSplit),将通道为c的

输入分成2组通道为c/2的分支,左边直接映射,右边是一个

类Invertedresiduals[19]模块,然后左右两边特征图合并,最后

进行通道打乱(ChannelShuffle)使得各个通道之间的信息相

互交通。图5(b)中左边分支是步长为2的深度可分离卷积,

右边分支是步长为2的类Invertedresiduals模块,之后通过左

右特征图合并、通道打乱得到输出。其中两个类Invertedresiduals模块除了空间下采样时第一个1×1卷积进行升维,其

他所有卷积操作输入输出通道数都相同。使用参数化修正线

性单元(ParametricRectifiedLinearUnit,PReLU)作为激活

函数。

2.2人脸匹配

将特征提取得到的128维特征与人脸数据库中的所有人

脸特征进行比对。相较于欧氏距离,余弦距离使用两个向量

夹角的余弦值衡量两个个体间差异的大小,后者更加注重两

个向量在方向上的差异,因此,本实验人脸特征比对采用的度

量方法是计算余弦距离远近,距离越近(相似度越大)表示两

张人脸越相似。本次实验设置阈值设为0.7,若余弦相似度

大于0.7,则表示这张图像匹配到了数据库中对应的人。如

果存在多张人脸与当前人脸的余弦相似度大于阈值,取相似

度最高的为匹配结果。2.3人脸跟踪

文献[20]使用核相关滤波(KernelizedCorrelationFilters,KCF)方法用于人脸跟踪,文献[21]通过在MTCNN算法后新加

一个网络做人脸跟踪。本文使用更简单的方法做人脸跟踪。MTCNN最后一个网络O-Net的网络结构如图6所示。由

于MTCNN算法是通过级联网络由粗到细完成人脸检测任务,O-Net第一个全连接层是256维的高层特征,包含了人脸

boundingbox回归和人脸关键点的信息,可以利用这256维特

征作为人脸跟踪的依据,并判断两个人脸框中心点的欧氏距

离进一步确定是否是同一人脸。

人脸跟踪算法流程。

提取第t+1帧的所有人脸框的O-Net的全连接层特征FOR第t+1帧的每个特征

与第t帧的所有特征计算余弦相似度IF最大相似度大于0.8

IF两个人脸框的中心点欧氏距离小于25px

两帧对应的人脸是同一目标ELSE

将当前人脸标记为新目标

图4原图与人脸检测后的关键点Fig.4Originalimageandkeypointsafterfacedetection

图5ShuffleMNet的mainblockFig.5MainblockofShuffleMNet

表1ShuffleMNet结构Tab.1ShuffleMNetarchitecture

Input

1122×3

562×64

562×64

282×64

142×128

72×128

72×512

12×512

Operator

Conv3×3

depthwiConv3×3

mainblock

mainblock

mainblock

Conv1×1

linearGDConv7×7

linearConv1×1

c

64

64

64

128

128

512

512

128

n

1

1

1

4

1

3

1

6

1

1

1

S

2

1

2

1

2

1

2

1

1

1

1

706

第3期龚锐等:基于深度学习的轻量级和多姿态人脸识别方法

3实验

3.1实验环境

本实验使用远程服务器训练深度神经网络模型,该服务器

配有64位的CentOS系统,配备了InterXeonE52620v4处理器,64GB内存,8张TeslaV100显卡,每张显卡显存为32GB。

3.2训练数据集与校验数据集

使用由DeepGlint公开的Asian-Celeb人脸数据集作为训

练数据集训练深度卷积神经网络模型。该数据集包含93979

个纯亚洲人,共2830146张已经对齐好的人脸图像,规模有93.8GB。本文提出的多姿态人脸数据集总800人共4000

张,取其中640人共3200张人脸图像作为训练数据集,其他800张图像作为测试集。

校验数据集包含LFW(LabeledFacesintheWild)[22]数据

集、CFP(CelebritiesinFrontalProfile)[23]数据集和Age-DB(AgeDataba)[24]数据集。其中,LFW数据集包含5749人共13233

张人脸图像,姿态表情和光照变化较大,使用其中的6000对人

脸图像作为校验数据集;CFP数据集包含500个身份,每个身

份有10个正脸,4个侧脸,本实验使用CFP数据集中的frontal-profile(FP)人脸验证,即CFP-FP(CFPwithFrontal-Profile)数据

集;AgeDB数据集包含440人共12240张人脸图像,本次实验

使用AgeDB-30,包含300正样本对和300负样本对。3.3训练前的设置

3.3.1预处理设置

为了提高人脸识别方法的鲁棒性,使用图像增强的方法

对训练集进行数据扩充,使用的方法为左右翻转和模拟光照

变化改变图像明暗度,使得训练集数量直接扩大了6倍。之

后在输入时对输入图像RGB三通道的像素值进行归一化处

理,即对原来RGB三个通道的像素值都减去127.5再除以128,使像素值都在(-1,1)区间内。

3.3.2训练样本设置

相较于Asian-Celeb数据集,本文提出的多姿态人脸数据

集样本数量远少于前者。由于实际应用场景往往与标准数据

集的场景不同,需要提高训练时本文数据集所占的比重,所以

改进了训练时样本选取的方式。之前样本选取方式完全随

机,并且每一轮每个样本仅出现一次,多姿态数据集对整体权

重贡献比较小。改进后,通过修改源程序使得每个batch

(batchsize为256)都会包含2个来自多姿态数据集的随机样

本。这样大大提升多姿态数据集对整个网络权重的贡献,提

高了其所占的比重。3.3.3网络参数设置

网络的下训练分2步。首先使用Softmaxloss预训练,可以

学习到可分的深度人脸特征,然后使用ArcFaceloss训练,学习

使得类内紧凑、类间分离的人脸特征。Softmax训练是使用的学习率为0.1,共训练120000步,

ArcFace训练初始学习率为0.1,迭代到120000、160000、180000

步时学习率每次都除以10,总共训练200000步。全局深度可分

离卷积层的权重衰减参数设置为4E-4,其他权重衰减参数设置

为4E-5;使用随机梯度下降策略(StochasticGradientDescent,SGD)优化模型,动量设置为0.9;batchsize设置为256。

3.4实验结果

第一步采用Softmaxloss训练的训练集精度和验证集精

度如图7所示,网络训练到42000步时,训练集精度已经达到81.5%,LFW精度为99.03%,AgeDB-30精度为88.45%,

CFP-FP精度为84.84%,此时停止Softmax训练开始使用

ArcFaceloss进行训练。使用ArcFaceloss训练的验证集精度

如图8所示,网络训练到160000步时网络已基本收敛,停止

训练,此时LFW精度为99.58%,AgeDB-30精度为96.08%,CFP-FP精度为88.46%。

图7使用Softmaxloss的训练曲线Fig.7TrainingcurveusingSoftmaxloss

图8使用ArcFaceloss的训练曲线Fig.8TrainingcurveusingArcFaceloss

图6MTCNN的最后一个网络O-NetFig.6MTCNN’slastnetworkO-Net

707

第40卷

计算机应用

为了验证本文提出的轻量级网络的有效性,实验并记录

了使用其他轻量级网络同样使用上面二步式训练的结果,训

练时并未加入本文建立的数据集,仅使用Asian-Celeb数据集

训练,实验结果如表2所示。

3.5人脸识别

3.5.1人脸数据库

模型训练好后,使用模型对测试集的800张人脸提取128

维人脸特征,将人脸姿态(正脸、左侧脸、右侧脸、低头、抬头)

与人脸信息(姓名、性别、年龄)作为标记一起保存到数据

库中。3.5.2实地测试

重新对测试集中的160名志愿者进行人脸识别测试。在

光照条件良好的场景布置摄像头,再次获取这些志愿者的5

种人脸姿态图像做测试。使用两种不同的方法进行人脸识

别,并统计结果。

第一种直接对每个志愿者的5张人脸图像提取特征后,

分别和人脸数据库中的所有特征进行比对,阈值取0.7,余弦

相似度大于0.7且人脸信息(姓名、性别、年龄)相同则表示人

脸识别正确。

第二种是根据5张人脸图像中每张人脸图像的姿态(由1.3节的方法自动判断人脸姿态,不再是手动获取姿态)选择

对应姿态的特征进行比对,即假设当前要对比的正脸图,则只

选择人脸数据库中所有正脸图对应的人脸特征进行比对,比

对方法同上。

两种方法的实验结果如表3所示,其中使用多姿态数据

集意味着在训练时按照3.3.2节中的方法加入多姿态数据

集。实验结果表明,第二种比对方法进行人脸识别效果

更好。

3.6时间测试

本实验采用的测试平台是虚拟机64位Ubuntu18.04

系统,处理器是InterCorei5-8400CPU@2.80GHz,内存

为2GB。使用NCNN框架作神经网络前向推导。

测试结果如表4所示。从表可以看出,ShuffleMNet比MobileFaceNet速度要快9ms,此外,由2.3节可以知道,人脸

跟踪提取了MTCNN第三个网络全连接层的特征,这里仅仅是

前向推导时顺便提取出来的,不需要耗费其他时间做这个特

征提取,剩下的就是相似度计算匹配,因此本文的人脸跟踪算

法几乎不花费额外的时间,记录检测和识别的总时间仅仅是

二者相加而已。

4结语

本文建立了一个多姿态人脸数据集,解决了目前单一姿

态数据集存在的人脸识别准确率不高的问题。另外,本文提

出的网络ShuffleMNet相较于MobileFaceNet等其他轻量级网

络精度更高,速度更快,可以很好地在移动设备上部署。同

时,在数据采集时采集了志愿者的年龄性别,有助于后续的人

脸年龄性别识别研究。

参考文献(References)

[1]palcomponentanalysis[J].JournalofMarket⁃

ingRearch,2002,25(4):513.

[2]BELKINM,ianeigenmapsandspectraltech⁃

niquesforembeddingandclustering[C]//Proceedingsofthe14th

InternationalConferenceonNeuralInformationProcessingSystems.

Cambridge:MITPress,2001:585-591.

[3]HEX,typrervingprojections[C]//Proceed⁃

ingsofthe16thInternationalConferenceonNeuralInformationPro⁃

dge:MITPress,2003:153-160.

[4]WRIGHTJ,YANGAY,GANESHA,facerecogni⁃

tionviasparreprentation[J].IEEETransactionsonPattern

AnalysisandMachineIntelligence,2009,31(2):210-227.

[5]RUSSAKOVSKYO,DENGJ,SUH,etlargescale

visualrecognitionchallenge[J].InternationalJournalofComputer

Vision,2015,115(3):211-252.

[6]SIMONYANK,epconvolutionalnetworks

forlarge-scaleimagerecognition[EB/OL].[2018-04-10].https://

/pdf/.

[7]SZEGEDYC,LIUW,JIAY,eeperwithconvolutions

[C]//Proceediaway:IEEE,2015:1-9.

[8]HEK,ZHANGX,RENS,tymappingsindeepresidu⁃

alnetworks[C]//Proceedingsofthe2016EuropeanConferenceon

ComputerVision,:Springer,2016:630-645.

[9]HOWARDAG,ZHUM,CHENB,Nets:efficient

convolutionalneuralnetworksformobilevisionapplications[EB/

OL].[2018-10-15].https:///pdf/.

[10]ZHANGX,ZHOUX,LINM,eNet:anextremelyef⁃

ficientconvolutionalneuralnetworkformobiledevices[EB/OL].

[2018-10-07].https:///pdf/.[11]CHENS,LIUY,GAOX,FaceNets:efficientCNNs

foraccuratereal-timefaceverificationonmobiledevices[EB/OL].

[2018-06-15].https:///ftp/arxiv/papers/1804/.[12]SCHROFFF,KALENICHENKOD,t:auni⁃

fiedembeddingforfacerecognitionandclustering[C]//Proceed⁃

ingsofthe2015IEEEConferenceonComputerVisionandPattern

表2ShuffleMNet与其他轻量级网络精度对比单位:%Tab.2AccuracycomparisonofShuffleMNetand

otherlightweightnetworksunit:%

网络

MobileNetV1

MobileNetV2

MobileFaceNet

ShuffleMNet

LFW

98.69

98.57

99.50

99.58

AgeDB-30

90.38

90.23

95.91

96.08

CFP

87.01

86.86

88.34

88.57

表3不同方法的准确率对比单位:%Tab.3Accuracycomparisonofdifferentmethodsunit:%

比对方法

根据姿态比对

直接比对

使用多姿态数据集

96.2593.75

不使用多姿态数据集

94.73

92.36

表4不同网络及其组合的时间对比单位:msTab.4Timecomparisonof

differentnetworksandtheircombinationsunit:ms

使用方法

MTCNN(minsize=40)

MobileFaceNet

ShuffleMNet

MTCNN+MobileFaceNet+人脸跟踪

MTCNN+ShuffleMNet+人脸跟踪

时间

40

37

2877

68

708

第3期龚锐等:基于深度学习的轻量级和多姿态人脸识别方法

away:IEEE,2015:815-823.

[13]WENY,ZHANGK,LIZ,iminativefeaturelearn⁃

ingapproachfordeepfacerecognition[C]//Proceedingsofthe

2016EuropeanConferenceonComputerVision,LNCS9911.

Cham:Springer,2016:499-515.

[14]LIUW,WENY,YUZ,Face:deephypersphereem⁃

beddingforfacerecognition[C]//Proceedingsofthe2017IEEE

away:IEEE,2017:6738-6746.

[15]WANGH,WANGYT,ZHOUZ,e:largemargin

cosinelossfordeepfacerecognition[EB/OL].[2018-04-03].

https:///pdf/.

[16]DENGJ,GUOJ,XUEN,e:additiveangularmar⁃

ginlossfordeepfacerecognition[EB/OL].[2019-02-09].

https:///pdf/.

[17]ZHANGK,ZHANGZ,LIZ,acedetectionandalign⁃

mentusingmultitaskcascadedconvolutionalnetworks[J].IEEE

SignalProcessingLetters,2016,23(10):1499-1503.

[18]MAN,ZHANGX,ZHENGH,eNetV2:practical

guidelinesforefficientCNNarchitecturedesign[EB/OL].[2018-

12-10].https:///pdf/.

[19]SANDLERM,HOWARDA,ZHUM,NetV2:in⁃

vertedresidualsandlinearbottlenecks[C]//Proceedingsofthe

2018IEEE/CVFConferenceonComputerVisionandPatternRec⁃

away:IEEE,2018:4510-4520.

[20]任梓涵,杨双远.基于视觉跟踪的实时视频人脸识别[J].厦门

大学学报(自然科学版),2018,57(3):438-444.(RENZH,-timefacerecognitioninvideosbadonvisual

tracking[J].JournalofXiamenUniversity(NaturalScience),

2018,57(3):438-444.)

[21]方国康,李俊,王垚儒.基于深度学习的ARM平台实时人脸识

别[J].计算机应用,2019,39(8):2217-2222.(FANGGK,LIJ,-timefacerecognitionbadonARMplat⁃

formbadondeeplearning[J].JournalofComputerApplica⁃

tions,2019,39(8):2217-2222.)

[22]HUANGGB,MATTARM,BERGT,dfacesinthe

wild:adatabaforstudyingfacerecognitioninunconstraineden⁃

vironments[EB/OL].[2019-01-20].https://.

edu/~elm/papers/.

[23]SENGUPTAS,CHENJC,CASTILLOC,ltoprofile

faceverificationinthewild[C]//Proceedingsofthe2016IEEE

away:IEEE,2016:1-9.

[24]MOSCHOGLOUS,PAPAIOANNOUA,SAGONASC,etal.

AgeDB:thefirstmanuallycollected,in-the-wildagedataba

[C]//Proceedingsofthe2017IEEEConferenceonComputerVi⁃away:IEEE,

2017:1997-2005.

ThisworkispartiallysupportedbytheOpenProjectoftheFujian

ProvincialKeyLaboratoryofDataIntensiveComputing(BD201805).

GONGRui,bornin1995,earchinterests

includedeeplearning,computervision.

DINGSheng,bornin1975,Ph.D.,

rearchinterestsincludecomputervision.

ZHANGChaohua,bornin1996,earch

interestsincludedeeplearning,computervision.

SUHao,bornin1996,earchinterests

includetransferlearning,computervision.

709

本文发布于:2023-03-04 12:44:34,感谢您对本站的认可!

本文链接:https://www.wtabcd.cn/fanwen/zuowen/1677905074134916.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

本文word下载地址:qq人脸识别.doc

本文 PDF 下载地址:qq人脸识别.pdf

上一篇:华为p5
下一篇:返回列表
标签:qq人脸识别
相关文章
留言与评论(共有 0 条评论)
   
验证码:
推荐文章
排行榜
Copyright ©2019-2022 Comsenz Inc.Powered by © 站长QQ:55-9-10-26 专利检索|