可左右滑动选省市

人脸关键点定位方法、装置、计算机设备和存储介质

更新时间:2024-09-24
人脸关键点定位方法、装置、计算机设备和存储介质 专利申请类型:实用新型专利;
地区:广东-深圳;
源自:深圳高价值专利检索信息库;

专利名称:人脸关键点定位方法、装置、计算机设备和存储介质

专利类型:实用新型专利

专利申请号:CN202010985328.9

专利申请(专利权)人:深圳市威富视界有限公司
权利人地址:广东省深圳市宝安区西乡街道桃源社区航城工业区展丰工业园B1栋5层

专利发明(设计)人:张少林,宁欣,段鹏飞,石园,孙琳钧,王镇

专利摘要:本申请涉及一种人脸关键点定位方法、装置、计算机设备和存储介质。所述方法包括:通过训练后的人脸关键点定位模型的编码子网络对待处理人脸图像进行预测运算,输出第一特征图,将第一特征图以及待处理人脸图像输入人脸关键点定位模型中解码子网络的解码处理层;通过解码处理层中的第一预设反卷积层对待处理人脸图像进行反卷积处理,得到第二特征图,对第二特征图进行特征筛选,将筛选后的特征图与第二特征图进行拼接,输出第三特征图,将第三特征图以及第一特征图输入至下一个解码处理层,直至解码子网络的最后一个解码处理层输出纹理位置图;根据纹理位置图以及预设索引计算得到人脸关键点特征信息。采用本方法能够提高人脸关键点定位效率。

主权利要求:
1.一种人脸关键点定位方法,其特征在于,所述方法包括:
获取待处理人脸图像;
将所述待处理人脸图像输入至训练后的人脸关键点定位模型,所述人脸关键点定位模型包括编码子网络以及解码子网络;
通过所述编码子网络对所述待处理人脸图像进行预测运算,输出第一特征图,将所述第一特征图以及所述待处理人脸图像输入至所述解码子网络的解码处理层;
通过所述解码处理层中的第一预设反卷积层对所述待处理人脸图像进行反卷积处理,得到第二特征图,对所述第二特征图进行特征筛选,将筛选后的特征图与所述第二特征图进行拼接处理,输出第三特征图,将所述第三特征图以及所述第一特征图输入至下一个解码处理层,直至所述解码子网络的最后一个解码处理层输出纹理位置图;
根据所述纹理位置图以及预设索引计算得到所述待处理人脸图像对应的人脸关键点特征信息;
所述第一预设反卷积层包括注意力层和连接层,所述对所述第二特征图进行特征筛选,将筛选后的特征与所述第二特征图进行拼接处理,输出第三特征图包括:通过注意力层提取第二特征图中各通道特征对应的权重参数,生成提取结果;将所述提取结果以及所述第二特征图输入至连接层,通过连接层将所述提取结果与所述第二特征图进行拼接,输出第三特征图;
在所述通过所述解码处理层中的第一预设反卷积层对所述待处理人脸图像进行反卷积处理之前,所述方法还包括:通过所述解码处理层中的输入层对所述待处理人脸图像进行特征提取;
将提取的特征输入至第一预设反卷积层,通过所述第一预设反卷积层对所述提取的特征进行特征删减处理。
2.根据权利要求1所述的方法,其特征在于,所述通过所述编码子网络对所述待处理人脸图像进行预测运算,输出第一特征图包括:通过所述编码子网络的编码处理层对所述待处理人脸图像进行预测运算,得到输出特征图;
将所述编码子网络中的上一个编码处理层的输出特征图和所述上一个编码处理层的输入特征图进行融合处理;
将融合后的特征图输入至下一个编码处理层,直至所述编码子网络的最后一个编码处理层输出第一特征图。
3.根据权利要求1至2任意一项所述的方法,其特征在于,所述解码处理层包括融合层,所述将所述第三特征图以及所述第一特征图输入至下一个解码处理层,直至所述解码子网络的最后一个解码处理层输出纹理位置图包括:将所述第三特征图与所述第一特征图输入至融合层,通过所述融合层将所述第三特征图与所述第一特征图进行融合处理,得到融合特征图;
将所述融合特征图作为下一个解码处理层的输入。
4.根据权利要求1所述的方法,其特征在于,在所述获取待处理人脸图像之前,所述方法还包括:获取样本人脸图像集;
将所述样本人脸图像集输入至预设人脸关键点定位模型,通过所述预设人脸关键点定位模型的编码子网络,输出第一特征图;
将所述第一特征图以及所述样本人脸图像集输入至预设人脸关键点定位模型的解码子网络,输出纹理位置图以及所述预设人脸关键点定位模型的损失函数值;
当所述损失函数值满足预设条件时,停止对所述预设人脸关键点定位模型进行训练,得到训练后的人脸关键点定位模型。
5.根据权利要求4所述的方法,其特征在于,所述获取样本人脸图像集包括:获取原始人脸图像集;
获取所述原始人脸图像集中各人脸图像对应的位置标签;
根据所述位置标签进行三维人脸重建,将重建后的人脸进行空间渲染,得到样本纹理位置图,将所述样本纹理位置图作为训练标签;
对所述原始人脸图像集以及所述训练标签进行归一化处理,得到样本人脸图像集。
6.一种人脸关键点定位装置,其特征在于,所述装置包括:
通信模块,用于获取待处理人脸图像;
第一输出模块,用于将所述待处理人脸图像输入至训练后的人脸关键点定位模型,所述人脸关键点定位模型包括编码子网络以及解码子网络;通过所述编码子网络对所述待处理人脸图像进行预测运算,输出第一特征图,将所述第一特征图以及所述待处理人脸图像输入至所述解码子网络的解码处理层;
第二输出模块,用于通过所述解码处理层中的第一预设反卷积层对所述待处理人脸图像进行反卷积处理,得到第二特征图,对所述第二特征图进行特征筛选,将筛选后的特征图与所述第二特征图进行拼接处理,输出第三特征图,将所述第三特征图以及所述第一特征图输入至下一个解码处理层,直至所述解码子网络的最后一个解码处理层输出纹理位置图;
计算模块,用于根据所述纹理位置图以及预设索引计算得到所述待处理人脸图像对应的人脸关键点特征信息;
第一预设反卷积层包括注意力层和连接层,所述第二输出模块还用于通过注意力层提取第二特征图中各通道特征对应的权重参数,生成提取结果;将所述提取结果以及所述第二特征图输入至连接层,通过连接层将所述提取结果与所述第二特征图进行拼接,输出第三特征图;
所述第一输出模块还用于通过所述解码处理层中的输入层对所述待处理人脸图像进行特征提取;将提取的特征输入至第一预设反卷积层,通过所述第一预设反卷积层对所述提取的特征进行特征删减处理。
7.根据权利要求6所述的装置,其特征在于,所述第一输出模块还用于通过所述编码子网络的编码处理层对所述待处理人脸图像进行预测运算,得到输出特征图;将所述编码子网络中的上一个编码处理层的输出特征图和所述上一个编码处理层的输入特征图进行融合处理;将融合后的特征图输入至下一个编码处理层,直至所述编码子网络的最后一个编码处理层输出第一特征图。
8.根据权利要求6至7任意一项所述的装置,其特征在于,所述解码处理层包括融合层,第一输出模块还用于将所述第三特征图与所述第一特征图输入至融合层,通过所述融合层将所述第三特征图与所述第一特征图进行融合处理,得到融合特征图;将所述融合特征图作为下一个解码处理层的输入。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至5中任一项所述的方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至5中任一项所述的方法的步骤。 说明书 : 人脸关键点定位方法、装置、计算机设备和存储介质技术领域[0001] 本申请涉及图像识别领域,特别是涉及一种人脸关键点定位方法、装置、计算机设备和存储介质。背景技术[0002] 随着互联网技术的发展,人脸关键点定位技术已经广泛应用于人脸识别、人脸跟踪、人脸姿态表情分析、人脸动画等多种领域。人脸关键点可以是人脸器官,如眼睛、耳朵、鼻子等。人脸关键点定位是指确定人脸关键点在待处理人脸图像中的位置信息。传统方式中,出现了基于深度学习的人脸关键点定位技术。例如,通过训练后的卷积神经网络模型对人脸图像进行人脸关键点定位,提高了人脸关键点的定位准确性。然而,由于传统方式中需要提取人脸图像中的所有特征来进行人脸关键点定位,会导致特征处理耗费较多时间,致使人脸关键点定位效率较低,无法满足实时性要求。发明内容[0003] 基于此,有必要针对上述技术问题,提供一种能够提高人脸关键点定位效率的人脸关键点定位方法、装置、计算机设备和存储介质。[0004] 一种人脸关键点定位方法,所述方法包括:[0005] 获取待处理人脸图像;[0006] 将所述待处理人脸图像输入至训练后的人脸关键点定位模型,所述人脸关键点定位模型包括编码子网络以及解码子网络;[0007] 通过所述编码子网络对所述待处理人脸图像进行预测运算,输出第一特征图,将所述第一特征图以及所述待处理人脸图像输入至所述解码子网络的解码处理层;[0008] 通过所述解码处理层中的第一预设反卷积层对所述待处理人脸图像进行反卷积处理,得到第二特征图,对所述第二特征图进行特征筛选,将筛选后的特征图与所述第二特征图进行拼接处理,输出第三特征图,将所述第三特征图以及所述第一特征图输入至下一个解码处理层,直至所述解码子网络的最后一个解码处理层输出纹理位置图;[0009] 根据所述纹理位置图以及预设索引计算得到所述待处理人脸图像对应的人脸关键点特征信息。[0010] 在其中一个实施例中,所述第一预设反卷积层包括注意力层和连接层,所述对所述第二特征图进行特征筛选,将筛选后的特征与所述第二特征图进行拼接处理,输出第三特征图包括:[0011] 通过注意力层提取第二特征图中各通道特征对应的权重参数,生成提取结果;[0012] 将所述提取结果以及所述第二特征图输入至连接层,通过连接层将所述提取结果与所述第二特征图进行拼接,输出第三特征图。[0013] 在其中一个实施例中,所述通过所述编码子网络对所述待处理图像进行预测运算,输出第一特征图包括:[0014] 通过所述编码子网络的编码处理层对所述待处理图像进行预测运算,得到输出特征图;[0015] 将所述编码子网络中的上一个编码处理层的输出特征图和所述上一个编码处理层的输入特征图进行融合处理;[0016] 将融合后的特征图输入至下一个编码处理层,直至所述编码子网络的最后一个编码处理层输出第一特征图。[0017] 在其中一个实施例中,所述解码处理层包括融合层,所述将所述第三特征图以及所述第一特征图输入至下一个解码处理层,直至所述解码子网络的最后一个解码处理层输出纹理位置图包括:[0018] 将所述第三特征图与所述第一特征图输入至融合层,通过所述融合层将所述第三特征图与所述第一特征图进行融合处理,得到融合特征图;[0019] 将所述融合特征图作为下一个解码处理层的输入。[0020] 在其中一个实施例中,在所述通过所述解码处理层中的第一预设反卷积层对所述待处理人脸图像进行反卷积处理之前,所述方法还包括:[0021] 通过所述解码处理层中的输入层对所述待处理人脸图像进行特征提取;[0022] 将提取的特征输入至第一预设反卷积层,通过所述第一预设反卷积层对所述提取的特征进行特征删减处理。[0023] 在其中一个实施例中,在所述获取待处理人脸图像之前,所述方法还包括:[0024] 获取样本人脸图像集;[0025] 将所述样本人脸图像集输入至预设人脸关键点定位模型,通过所述预设人脸关键点定位模型的编码子网络,输出第一特征图;[0026] 将所述第一特征图以及所述样本人脸图像集输入至预设人脸关键点定位模型的解码子网络,输出纹理位置图以及所述预设人脸关键点定位模型的损失函数值;[0027] 当所述损失函数值满足预设条件时,停止对所述预设人脸关键点定位模型进行训练,得到训练后的人脸关键点定位模型。[0028] 在其中一个实施例中,所述获取样本人脸图像集包括:[0029] 获取原始人脸图像集;[0030] 获取所述原始人脸图像集中各人脸图像对应的位置标签;[0031] 根据所述位置标签进行三维人脸重建,将重建后的人脸进行空间渲染,得到样本纹理位置图,将所述样本纹理位置图作为训练标签;[0032] 对所述原始人脸图像集以及所述训练标签进行归一化处理,得到样本人脸图像集。[0033] 一种人脸关键点定位装置,所述装置包括:[0034] 通信模块,用于获取待处理人脸图像;[0035] 第一输出模块,用于将所述待处理人脸图像输入至训练后的人脸关键点定位模型,所述人脸关键点定位模型包括编码子网络以及解码子网络;通过所述编码子网络对所述待处理人脸图像进行预测运算,输出第一特征图,将所述第一特征图以及所述待处理人脸图像输入至所述解码子网络的解码处理层;[0036] 第二输出模块,用于通过所述解码处理层中的第一预设反卷积层对所述待处理人脸图像进行反卷积处理,得到第二特征图,对所述第二特征图进行特征筛选,将筛选后的特征图与所述第二特征图进行拼接处理,输出第三特征图,将所述第三特征图以及所述第一特征图输入至下一个解码处理层,直至所述解码子网络的最后一个解码处理层输出纹理位置图;[0037] 计算模块,用于根据所述纹理位置图以及预设索引计算得到所述待处理人脸图像对应的人脸关键点特征信息。[0038] 一种计算机设备,包括存储器和处理器,所述存储器存储有可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述各个方法实施例中的步骤。[0039] 一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述各个方法实施例中的步骤。[0040] 上述人脸关键点定位方法、装置、计算机设备和存储介质,获取待处理人脸图像,将待处理人脸图像输入至训练后的人脸关键点定位模型,人脸关键点定位模型包括编码子网络以及解码子网络,通过编码子网络对待处理人脸图像进行预测运算,输出第一特征图,将第一特征图以及待处理人脸图像输入至解码子网络的解码处理层,从而通过解码处理层中的第一预设反卷积层对待处理人脸图像进行反卷积处理,得到第二特征图,对第二特征图进行特征筛选,将筛选后的特征图与第二特征图进行拼接处理,输出第三特征图,将第三特征图以及第一特征图输入至下一个解码处理层,直至解码子网络的最后一个解码处理层输出纹理位置图。进而服务器根据纹理位置图以及预设索引计算得到待处理人脸图像对应的人脸关键点特征信息。通过解码子网络中第一预设反卷积层对待处理人脸图像进行反卷积处理以及特征筛选,能够确定权重参数较大的有效特征,从而重点关注有效特征,减少无效特征处理造成的时间浪费,从而提高人脸关键点定位模型的预测效率,进而提高人脸关键点定位效率,能够应用于实时性要求较高的模式下。同时,通过解码子网络对待处理人脸图像进行反卷积处理以及特征筛选,与传统方式相比,能够生成更为丰富的特征,提高了人脸关键点定位的准确性。附图说明[0041] 图1为一个实施例中人脸关键点定位方法的应用环境图;[0042] 图2为一个实施例中人脸关键点定位方法的流程示意图;[0043] 图3为一个实施例中对第二特征图进行特征筛选,将筛选后的特征与第二特征图进行拼接处理,输出第三特征图步骤的流程示意图;[0044] 图4为一个实施例中人脸关键点定位模型的解码子网络中第一预设反卷积层的示意图;[0045] 图5为一个实施例中人脸关键点定位模型的解码子网络中残差块的示意图;[0046] 图6为一个实施例中人脸关键点定位模型的示意图;[0047] 图7为一个实施例中人脸关键点定位模型的训练步骤的流程示意图;[0048] 图8为一个实施例中获取样本待处理人脸图像集步骤的流程示意图;[0049] 图9为一个实施例中人脸关键点定位装置的结构框图;[0050] 图10为一个实施例中计算机设备的内部结构图。具体实施方式[0051] 为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。[0052] 本申请提供的人脸关键点定位方法,可以应用于如图1所示的应用环境中。其中,终端102与服务器104通过网络进行通信。待处理人脸图像的获取方式可以有多种,可以是终端102发送人脸关键点定位请求至服务器104,服务器104对人脸关键点定位请求进行解析,得到待处理人脸图像。也可以是终端发送人脸关键点定位请求至服务器104,服务器104对人脸关键点定位请求进行解析,得到图像数据,从图像数据中提取待处理人脸图像。服务器104将待处理人脸图像输入至训练后的人脸关键点定位模型,对人脸关键点定位模型进行解析,得到编码子网络以及解码子网络。服务器104通过编码子网络对待处理人脸图像进行预测运算,输出第一特征图,将第一特征图以及待处理人脸图像输入至编码子网络的解码处理层。服务器104通过编码处理层中的第一预设反卷积层对第一特征图进行反卷积处理,得到第二特征图,对第二特征图进行特征筛选,将筛选后的特征图与第二特征图进行拼接处理,输出第三特征图,将第三特征图以及第一特征图输入至下一个解码处理层,直至解码子网络的最后一个解码处理层输出纹理位置图。服务器104根据纹理位置图以及预设索引计算得到待处理人脸图像对应的人脸关键点特征信息。其中,终端102可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备。服务器104可以用独立的服务器或者是多个服务器组成的服务器集群来实现。[0053] 在一个实施例中,如图2所示,提供了一种人脸关键点定位方法,以该方法应用于图1中的服务器为例进行说明,包括以下步骤:[0054] 步骤202,获取待处理人脸图像。[0055] 待处理人脸图像是指包括人脸目标的图像,待处理人脸图像为需要进行人脸关键点定位的图像。人脸关键点可以是人脸目标的面部器官,如眼睛、耳朵、鼻子等。人脸关键点定位是指确定人脸关键点在待处理人脸图像中的位置信息。[0056] 在人脸关键点定位技术的多种应用领域中,如人脸识别、人脸跟踪、人脸姿态表情分析、人脸动画等,服务器可以接收终端发送的人脸关键点定位请求。在其中一个实施例中,人脸关键点定位请求中可以携带有待处理人脸图像。当服务器接收到人脸关键点定位请求时,对人脸关键点定位请求进行解析,得到待处理人脸图像。其中,待处理人脸图像可以是终端对预先存储的图像数据进行人脸检测得到的。在其中一个实施例中,人脸关键点定位请求中可以携带有预先存储在终端的图像数据,当服务器接收到人脸关键点定位请求时,对人脸关键点定位请求进行解析,得到图像数据。服务器从图像数据中提取待处理人脸图像。当无法从图像数据中提取到人脸图像时,表明图像数据中不存在人脸,可以删除或者忽略该图像数据。进一步的,服务器可以调用人脸检测模型,通过人脸检测模型对图像数据进行人脸检测,确定人脸目标对应的人脸区域。其中,人脸区域可以是人脸目标对应的检测框。服务器提取该人脸区域对应的图像,作为待处理人脸图像。[0057] 步骤204,将待处理人脸图像输入至训练后的人脸关键点定位模型,人脸关键点定位模型包括编码子网络以及解码子网络。[0058] 步骤206,通过编码子网络对待处理人脸图像进行预测运算,输出第一特征图,将第一特征图以及待处理人脸图像输入至解码子网络的解码处理层。[0059] 服务器中预先配置有训练后的人脸关键点定位模型。人脸关键点定位模型是通过样本图像数据集进行训练得到的,样本图像数据集包括大量标注有位置标签的人脸图像。服务器在获取到待处理人脸图像后,调用训练后的人脸关键点定位模型。人脸关键点定位模型用于对待处理人脸图像进行包括编码阶段以及解码阶段的处理,实现人脸关键点定位。服务器对人脸关键点定位模型进行解析,得到编码子网络以及解码子网络。编码子网络为编码阶段处理所采用的网络,解码子网络为解码阶段所采用的网络。[0060] 编码子网络可以包括多个编码处理层,具体包括输入层、卷积层、多个残差块等。解码子网络可以包括多个解码处理层,具体可以包括多个预设反卷积层、Add层、多个普通反卷积层、卷积层、输出层等。其中,预设反卷积层为高效卷积层(EfficientDeconvolutionlayer),高效反卷积层与普通反卷积层相比,特征处理效率更高。普通反卷积层也可以称为普通的转置卷积层(Transposedconvolutionlayer)。[0061] 服务器将待处理人脸图像输入至训练后的人脸关键点定位模型,将待处理图像作为编码子网络的输入,通过编码子网络中的多个编码处理层对待处理图像进行预测运算,通过编码子网络的最后一个编码处理层输出第一特征图。其中,第一特征图是编码阶段的编码子网络输出的用于表征人脸关键点位置的图像。进而将第一特征图以及待处理人脸图像输入至解码子网络的解码处理层。[0062] 步骤208,通过解码处理层中的第一预设反卷积层对第一特征图进行反卷积处理,得到第二特征图,对第二特征图进行特征筛选,将筛选后的特征图与第二特征图进行拼接处理,输出第三特征图,将第三特征图以及第一特征图输入至下一个解码处理层,直至解码子网络的最后一个解码处理层输出纹理位置图。[0063] 服务器将编码子网络输出的第一特征图以及待处理人脸图像作为编码子网络的输入,编码子网络可以包括多个解码处理层,具体可以包括多个预设反卷积层、Add层、多个普通反卷积层、卷积层等。预设反卷积层为高效反卷积层,高效反卷积层中可以包括普通卷积层、注意力层以及连接层,通过第一预设反卷积层中的普通卷积层对待处理人脸图像进行反卷积处理,输出第二特征图。将第一预设反卷积层中普通卷积层输出的特征图一方面保留,另一方面输入至注意力层。保留的特征图与输入注意力层的特征图是相同的,均为第二特征图。通过注意力层对第二特征图进行特征筛选,输出筛选后的特征图,将筛选后的特征图以及保留的普通卷积层输出的特征图,即第二特征图输入至连接层,通过连接层将筛选后的特征图与第二特征图进行拼接处理,输出第三特征图。其中,第三特征图是解码阶段中解码子网络的第一预设反卷积层输出的用于表征人脸关键点位置的图像。[0064] 解码子网络将第一预设反卷积层输出的第三特征图输入至下一个解码处理层,直至解码子网络的最后一个解码处理层输出纹理位置图。其中,纹理位置图是指与待处理人脸图像中人脸目标的面部对应的面部纹理图像。纹理图像也可以称为UV位置图,是三维展开的表面图像。UV是指UV纹理贴图坐标的简称,定义了图像上每个点的位置的信息,U和V分别是图像在显示器水平、垂直方向上的坐标,取值一般都是0~1。UV位置图中每个点与三维人脸模型是相互联系的,可以决定表面纹理贴图的位置,即UV位置图中每一个点可以精确对应到人脸模型的表面,从而进行三维的人脸关键点预测。[0065] 步骤210,根据纹理位置图以及预设索引计算得到待处理人脸图像对应的人脸关键点特征信息。[0066] 服务器可以获取预设索引。预设索引用于计算纹理位置图对应的人脸关键点特征信息。人脸关键点特征信息是指人脸面部的关键点的位置坐标。服务器根据预设索引以及纹理位置图确定待处理人脸图像中人脸面部的人脸关键点,进而获取人脸面部中各人脸关键点的位置坐标。[0067] 在本实施例中,服务器获取待处理人脸图像,将待处理人脸图像输入至训练后的人脸关键点定位模型,人脸关键点定位模型包括编码子网络以及解码子网络,通过编码子网络对待处理人脸图像进行预测运算,输出第一特征图,将第一特征图以及待处理人脸图像输入至解码子网络的解码处理层,从而通过解码处理层中的第一预设反卷积层对待处理人脸图像进行反卷积处理,得到第二特征图,对第二特征图进行特征筛选,将筛选后的特征图与第二特征图进行拼接处理,输出第三特征图,将第三特征图以及第一特征图输入至下一个解码处理层,直至解码子网络的最后一个解码处理层输出纹理位置图。进而服务器根据纹理位置图以及预设索引计算得到待处理人脸图像对应的人脸关键点特征信息。通过解码子网络中第一预设反卷积层对待处理人脸图像进行反卷积处理以及特征筛选,能够确定权重参数较大的有效特征,从而重点关注有效特征,减少无效特征处理造成的时间浪费,从而提高人脸关键点定位模型的预测效率,进而提高人脸关键点定位效率,能够应用于实时性要求较高的模式下。同时,通过解码子网络对待处理人脸图像进行反卷积处理以及特征筛选,与传统方式相比,能够生成更为丰富的特征,提高了人脸关键点定位的准确性。[0068] 在一个实施例中,在通过解码处理层中的第一预设反卷积层对待处理人脸图像进行反卷积处理之前,上述方法还包括:通过解码处理层中的输入层对待处理人脸图像进行特征提取;将提取的特征输入至第一预设反卷积层,通过第一预设反卷积层对提取的特征进行特征删减处理。[0069] 第一预设反卷积层为高效反卷积层,高效反卷积层可以进行特征删减操作。服务器将第一特征图以及待处理人脸图像输入至解码子网络的解码处理层,解码处理层包括输入层,通过输入层对待处理人脸图像进行特征提取,生成特征提取结果。将特征提取结果输入至解码处理层中的第一预设反卷积层,第一预设反卷积层通过特征删减操作选择特征提取结果中特征通道的前一半特征,并将选择的特征输入到后面的普通反卷积层进行反卷积处理,减少了普通反卷积层一半的耗时,加快了网络前传的速度。[0070] 在其中一个实施例中,解码处理层包括融合层,将第三特征图以及第一特征图输入至下一个解码处理层,直至解码子网络的最后一个解码处理层输出纹理位置图包括:将第三特征图与第一特征图输入至融合层,通过融合层将第三特征图与第一特征图进行融合处理,得到融合特征图;将融合特征图作为下一个解码处理层的输入。[0071] 服务器可以将编码子网络输出的第一特征图进行保留。当第一预设反卷积层输出第三特征图后,通过融合层将第一预设反卷积层输出的第三特征图与编码子网络输出的第一特征图进行融合处理。例如,融合层可以是Add层。例如,融合处理的方式可以是特征图相加。服务器从而将融合处理得到的融合特征图作为下一个解码处理层的输入。[0072] 在本实施例中,通过将第一预设反卷积层输出的第三特征图与编码子网络输出的第一特征图进行融合,实现特征增强,从而得到更为信息更为丰富的特征,进而有效提高了人脸关键点定位的准确性。[0073] 在一个实施例中,如图3所示,第一预设反卷积层包括注意力层和连接层,对第二特征图进行特征筛选,将筛选后的特征与第二特征图进行拼接处理,输出第三特征图的步骤包括:[0074] 步骤302,通过注意力层提取第二特征图中各通道特征对应的权重参数,生成提取结果。[0075] 步骤304,将提取结果以及第二特征图输入至连接层,通过连接层将提取结果与第二特征图进行拼接,输出第三特征图。[0076] 第一预设反卷积层为高效反卷积层,高效反卷积层中可以包括普通卷积层、注意力层以及连接层。例如,注意力层可以是SE(Squeeze‑and‑Excitation,压缩与激励)层。服务器通过第一预设反卷积层中的普通卷积层对编码子网络进行反卷积处理,输出第二特征图。将普通卷积层输出的特征图一方面保留,另一方面输入至注意力层。保留的特征图与输入注意力层的特征图是相同的,均为第二特征图。通过注意力层采用注意力机制的方式提取第二特征图中各通道特征对应的权重参数,并提高有用特征对应的权重参数,根据各通道特征对应的权重参数生成提取结果。将提取结果以及第二特征图输入至连接层,通过连接层将提取结果与第二特征图按照通道或者维度进行拼接,通过连接层输出第三特征图。例如,连接层可以是Concat连接层。之后,解码子网络将第一预设反卷积层的连接层输出的第三特征图输入至下一个解码处理层,直至解码子网络的最后一个解码处理层输出纹理位置图。[0077] 在本实施例中,通过注意力层提取第二特征图中各通道特征对应的权重参数,生成提取结果。从而将提取结果以及第二特征图输入至连接层,通过连接层将提取结果与第二特征图进行拼接,输出第三特征图。能够为各通道特征分配一个可学习的参数,即权重参数,从而对通道特征进行轻重区分,权重参数越大,表明特征越重要。从而可以确定有效特征,重点关注有效特征,减少无效特征处理造成的时间浪费,进一步提高了人脸关键点定位模型的预测效率,进而有效提高了人脸关键点定位效率。[0078] 在一个实施例中,如图4所示,解码子网络的第一预设反卷积层可以包括依次连接的普通反卷积层、BN层、Relu层,Relu层分别连接与注意力层以及连接层,注意力层与连接层进行连接。其中,第一预设反卷积层可以包括特征删减(Featureselect)操作。将待处理人脸图像输入至解码子网络的解码处理层,通过解码处理层的输入层对待处理人脸图像进行特征提取,得到特征提取结果。当特征提取结果输入到解码处理层中的第一预设反卷积层之后,首先经过特征删减操作进行特征删减,输出删减后的特征。将删减后的特征输入至普通反卷积层,普通反卷积层对删减后的特征进行反卷积处理,输出第二特征图。将第二特征图输入至BN层,BN层即BatchNorm层,通过BN层可以将第二特征图规范化到相同的分布,比如均值为0,方差为1的分布,使得数据分布更容易被网络学习且不容易过拟合。通过Relu层对BN层的输出进行激活处理,可以造成网络的稀疏性,缓解了过拟合,也更接近真实的神经元激活模型,能够使模型更容易收敛,避免了梯度消失的问题。可以将Relu层的输出一部分保留,一部分输入至注意力层,将注意力层的输出与保留的Relu层的输出作为连接层的输入,通过连接层输出第三特征图。[0079] 在一个实施例中,通过编码子网络对待处理图像进行预测运算,输出第一特征图包括:通过编码子网络的编码处理层对待处理图像进行预测运算,得到输出特征图;将编码子网络中的上一个编码处理层的输出特征图和上一个编码处理层的输入特征图进行融合处理;将融合后的特征图输入至下一个编码处理层,直至编码子网络的最后一个编码处理层输出第一特征图。[0080] 编码子网络可以包括多个编码处理层,具体可以包括卷积层、多个残差块等。通过编码子网络的多个编码处理层对待处理图像进行预设运算,可以将各编码处理层的输出统一称为输出特征图。编码子网络在编码过程中,可以将上一个编码处理层的输出特征图和上一个编码处理层的输入特征图进行融合处理,得到融合后的特征图,将融合后的特征图作为下一个编码处理层的输入,输入至下一个编码处理层,直至编码子网络的最后一个编码处理层输出第一特征图。[0081] 在其中一个实施例中,将融合后的特征图输入至下一个编码处理层之前,还可以对融合后的特征图进行标准化处理,得到标准化处理后的特征图。对标准化处理后的特征图进行激活处理,将激活处理后的特征图作为下一个编码处理层的输入。激活处理采用的激活函数可以是Relu函数。[0082] 在本实施例中,通过将编码子网络中的上一个编码处理层的输出特征图和上一个编码处理层的输入特征图进行融合处理,将融合后的特征图输入至下一个编码处理层,直至编码子网络的最后一个编码处理层输出第一特征图。能够提取出待处理人脸图像中分辨率较大的特征,通过后续解码子网络的解码过程,将高分辨率的特征与解码过程中提取的分辨率较低的特征进行融合,能够得到更为丰富的特征,从而得到更准确的纹理位置图,进一步提高人脸关键点定位的准确性。[0083] 在一个实施例中,如图5所示,编码子网络的残差块可以包括多个卷积层、Add层、BN层以及Relu层。例如,卷积层的个数可以为4个。多个卷积层之间依次连接,最后一个卷积层与Add层连接,Add层、BN层以及Relu层依次连接。Add层用于将残差块的最后一个卷积层的输出特征与残差块的输入特征进行相加操作,实现特征融合,再将Add层的输出经过BN层和Relu层得到残差块的输出特征。[0084] 在一个实施例中,如图6所示,例如,人脸关键点定位模型的网络结构可以包括:输入层、第一卷积层、多个残差块、第一Add层、多个高效反卷积层、第一反卷积层、第二卷积层、第二反卷积层以及输出层。其中,多个相连接的残差块之间的特征通道是逐渐增加的,如下一个残差块输出的特征图个数逐是上一个残差块输出的特征图个数的两倍。由此能够提取到足够丰富的特征,通道增加特征通道数,增强了模型的非线性学习能力。[0085] 高效反卷积层为预设反卷积层,第一反卷积层和第二反卷积层为普通反卷积层。输入层、第一卷积层以及多个残差块之间依次连接,第一Add层分别与最后一个残差块以及第一高效反卷积层连接,第一Add层将最后一个残差块的输出与第一高效反卷积层的输出进行融合,将第一Add层的输出作为第二高效反卷积层的输入。第二高效反卷积层、后续的高效反卷积层、第一反卷积层、第二卷积层、第二反卷积层以及输出层之间依次连接。[0086] 在本实施例中,通过将高效反卷积层替换普通反卷积层,提高了特征处理速度,能够解决传统方式在移动端难以达到实时的问题。通过添加第一Add层,第一Add层分别与最后一个残差块以及第一高效反卷积层连接,能够将最后一个残差块的输出与第一高效反卷积层的输出进行融合,实现特征增强,提高了模型的预测准确性。[0087] 进一步地,人脸关键点定位模型还可以包括连接到第二反卷积层的欧氏距离层,该欧氏距离层接收第二反卷积层输出的纹理位置图,并计算人脸关键点定位模型在训练过程中的损失函数值,采用梯度下降算法根据损失函数值更新模型的网络参数。[0088] 在一个实施例中,在获取待处理人脸图像之前,上述方法还包括人脸关键点定位模型的训练步骤,具体包括:[0089] 步骤702,获取样本人脸图像集。[0090] 步骤704,将样本人脸图像集输入至预设人脸关键点定位模型,通过预设人脸关键点定位模型的编码子网络,输出第一特征图。[0091] 步骤706,将第一特征图以及样本人脸图像集输入至预设人脸关键点定位模型的解码子网络,输出纹理位置图以及预设人脸关键点定位模型的损失函数值。[0092] 步骤708,当损失函数值满足预设条件时,停止对预设人脸关键点定位模型进行训练,得到训练后的人脸关键点定位模型。[0093] 样本人脸图像集指的是用于训练人脸关键点定位模型的训练集,且样本人脸图像集是单通道灰度图。可以理解的是,样本人脸图像集中的人脸图像也可以包括直接对人体脸部进行拍摄的图像。样本人脸图像数据集还可以包括验证集和测试集,验证集用于确定网络结构或者控制模型复杂程度的参数,测试集用来评价网络或者模型的表现。[0094] 预设人脸关键点定位模型是指需要进行训练的人脸关键点定位模型。预设人脸关键点定位模型包括编码子网络以及解码子网络。编码子网络为编码阶段处理所采用的网络,解码子网络为解码阶段所采用的网络。编码子网络可以包括多个编码处理层,具体包括输入层、卷积层、多个残差块等。解码子网络可以包括多个解码处理层,具体可以包括多个预设反卷积层、Add层、多个普通反卷积层、卷积层、输出层等。其中,预设反卷积层为高效卷积层(EfficientDeconvolutionlayer),高效反卷积层与普通反卷积层相比,特征处理效率更高。普通反卷积层也可以称为普通的转置卷积层(Transposedconvolutionlayer)。[0095] 纹理位置图是指与待处理人脸图像中人脸目标的面部对应的面部纹理图像。在模型训练的过程中,损失函数用于衡量预测值与真实值之间的误差,损失函数值一般为非负数,损失函数值越小表示误差越小,一般采用平方函数。服务器将样本人脸图像集输入至预设人脸关键点定位模型,将样本人脸图像集作为编码子网络的输入,通过编码子网络中的多个编码处理层对样本人脸图像集进行预测运算,通过编码子网络的最后一个编码处理层输出第一特征图。从而将第一特征图以及样本人脸图像集输入至预设人脸关键点定位模型的解码子网络,输出纹理位置图以及预设人脸关键点定位模型的损失函数值。进一步的,在解码阶段,解码子网络可以根据纹理位置图以及样本人脸图像集的位置标签计算人脸关键点定位模型的损失函数值,采用梯度下降算法根据损失函数值更新模型的网络参数。预设人脸关键点定位模型中编码子网络与解码子网络的预测过程与上述人脸关键点定位方法中训练后的人脸关键点定位模型的定位过程是相同的,此处不再赘述。[0096] 损失函数值用于评价预设人脸关键点定位模型。在训练预设人脸关键点定位模型的过程中,损失函数值在不断下降,当损失函数值满足预设条件时,即损失函数值趋于稳定不再发生变化,此时说明损失函数值趋于收敛,且已经完成预设人脸关键点定位模型的训练,则可以停止对预设人脸关键点定位模型的训练,将此时的模型作为训练后的人脸关键点定位模型。[0097] 在本实施例中,通过解码子网络中第一预设反卷积层对第一特征图进行反卷积处理以及特征筛选,能够确定权重参数较大的有效特征,从而重点关注有效特征,减少无效特征处理造成的时间浪费,从而提高人脸关键点定位模型的预测效率,进而提高人脸关键点定位效率,能够应用于实时性要求较高的模式下。同时,通过解码子网络对第一特征图进行反卷积处理以及特征筛选,与传统方式相比,能够生成更为丰富的特征,提高了人脸关键点定位的准确性。[0098] 在一个实施例中,如图8所示,获取样本待处理人脸图像集包括:[0099] 步骤802,获取原始人脸图像集。[0100] 步骤804,获取原始人脸图像集中各人脸图像对应的位置标签。[0101] 步骤808,根据位置标签进行三维人脸重建,将重建后的人脸进行空间渲染,得到样本纹理位置图,将样本纹理位置图作为训练标签。[0102] 步骤810,对原始人脸图像集以及训练标签进行归一化处理,得到样本人脸图像集。[0103] 原始人脸图像集指的是通过人脸检测并对其进行截取或者裁剪的图像,以得到原始人脸图像集所包含的人脸图像。原始人脸图像集可以是预先存储在本地的,也可以是从服务器中获取的。原始人脸图像集包括多个人脸图像,服务器获取各人脸图像对应的位置标签,位置标签为人脸图像的真实标注标签。从而服务器根据位置标签进行三维人脸重建,例如,三维人脸重建的方式可以是BFM(BaselFaceModel,巴塞尔面模型)重建。服务器将重建后的人脸在UV空间进行渲染,得到样本纹理位置图,样本纹理位置图为表达人脸信息的UV位置图。进而将样本纹理位置图作为训练标签。服务器对原始人脸图像集以及训练标签进行归一化处理,得到样本人脸图像集。[0104] 在本实施例中,根据原始人脸图像集中各人脸图像对应的位置标签进行三维重建,将重建后的人脸进行空间渲染,得到样本纹理位置图,将样本纹理位置图作为训练标签,并对原始人脸图像集以及所述训练标签进行归一化处理,得到样本人脸图像集。采用深度学习方法直接学习回归三维人脸信息的方式进行三维的人脸关键点预测,能够得到更丰富的人脸信息,解决了人脸大角度姿态时,二维关键点定位算法误差较大的问题。[0105] 下面举例说明预设人脸关键点定位模型的网络结构,并对预设人脸关键点定位模型进行训练。样本人脸图像集的大小为128*128*3。预设人脸关键点定位模型的网络结构包括编码子网络以及解码子网络两部分。编码子网络与解码子网络进行连接。编码子网络中可以包括1个卷积层和8个残差块等,解码子网络中可以包括8个高效反卷积层、1个Add层、2个反卷积层和1个卷积层等。[0106] 编码子网络中,第一卷积层具有多个滤波器。第一卷积层连接第一BN层和第一Relu层,第一Relu层的输出直接输入至第一残差块。具体的,第一卷积层包括8个滤波器,1个滤波器对应存在1个卷积核,各卷积核的大小为3*3,卷积操作的步长为1,第一卷积层输出的特征大小为128*128*8,即得到8个像素为128*128的特征图。第一卷积层依次连接第一BN层和第一Relu层,通过第一BN层对第一卷积层的输出进行规范化处理,通过第一Relu层对第一BN层的输出进行激活处理,第一BN层和第一Relu层的处理不改变第一卷积层输出的特征图的大小。[0107] 根据滤波器的个数将残差块进行分组,各分组包括两个残差块。各分组中第一个残差块卷积操作的步长设置为2,以减小输出特征图的大小,第二个残差块卷积操作的步长设置为1,以增加网络的深度。多个分组的残差块可以按照连接顺序逐渐增加特征通道,以逐渐增加特征图的个数。多个残差块均包括多个卷积层、Add层、BN层以及Relu层。卷积层可以包括多个卷积核。上一个残差块中Relu层的输出直接输入至下一个残差块。[0108] 具体的,第一残差块包括4个卷积层。多个卷积层之间依次连接,最后一个卷积层与相应的Add层连接,Add层、BN层以及Relu层依次连接。4个卷积层中可以包括16个卷积核,各卷积核的大小为3*3,卷积操作的步长为2,用于减小输出特征图的大小。第一残差块的最后一个卷积层输出16个像素为64*64的特征图,第一残差块的最后一个卷积层与Add层连接,Add层将残差块的最后一个卷积层的输出与残差块的输入进行相加操作,实现特征融合,Add层依次连接BN层和Relu层,通过BN层对Add层的输出进行规范化处理,通过Relu层对BN层的输出进行激活处理,Add层、BN层和Relu层的处理不改变最后一个卷积层输出的特征图的大小。第一残差块中Relu层的输出直接输入至第二残差块。[0109] 第二残差块包括16个卷积核,各卷积核的大小为3*3,卷积操作的步长为1,用于增加网络深度。第二残差块中最后一个卷积层的输出经过相应的Add层、BN层和Relu层,将第二残差块中Relu层的输出直接输入至第三残差块。[0110] 第三残差块包括32个卷积核,各卷积核的大小为3*3,卷积操作的步长为2,用于减小输出特征图的大小。第三残差块中最后一个卷积层的输出经过相应的Add层、BN层和Relu层之后,输出32个像素为32*32的特征图。第三残差块中Relu层的输出直接输入至第四残差块。[0111] 第四残差块包括32个卷积核,各卷积核的大小为3*3,卷积操作的步长为1,用于增加网络深度。第四残差块中最后一个卷积层的输出经过相应的Add层、BN层和Relu层之后,输出32个像素为32*32的特征图。第四残差块中Relu层的输出直接输入至第五残差块。[0112] 第五残差块包括64个卷积核,各卷积核的大小为3*3,卷积操作的步长为2,用于减小输出特征图的大小。第五残差块中最后一个卷积层的输出经过相应的Add层、BN层和Relu层之后,输出64个像素为16*16的特征图。第五残差块中Relu层的输出直接输入至第六残差块。[0113] 第六残差块包括64个卷积核,各卷积核的大小为3,卷积操作的步长为1,用于增加网络深度。第六残差块中最后一个卷积层的输出经过相应的Add层、BN层和Relu层之后,输出64个像素为16*16的特征图。第六残差块中Relu层的输出直接输入至第七残差块。[0114] 第七残差块包括128个卷积核,各卷积核的大小为3*3,卷积操作的步长为2,用于减小输出特征图的大小。第七残差块中最后一个卷积层的输出经过相应的Add层、BN层和Relu层之后,输出128个像素为8*8的特征图。第七残差块中Relu层的输出直接输入至第八残差块。[0115] 第八残差块包括128个卷积核,各卷积核的大小为3*3,卷积操作的步长为1,用于增加网络深度。第八残差块中最后一个卷积层的输出经过相应的Add层、BN层和Relu层之后,输出128个像素为8*8的特征图。第八残差块中Relu层的输出直接输入至解码子网络的第一Add层。[0116] 解码子网络中,第一高效反卷积层包括128个卷积核,各卷积核的大小为3*3,卷积操作的步长为1。将样本人脸图像集输入至第一高效反卷积层,将第一高效反卷积层的输出直接输入至第一Add层,通过第一Add层将第一高效反卷积层的输出与第八残差块输出的特征图进行融合处理,将融合特征图输入至第二高效反卷积层。[0117] 第二高效反卷积层包括128个卷积核,各卷积核的大小为3*3,卷积操作的步长为2,用于放大输出特征图的大小。第二高效反卷积层输出128个像素为16*16的特征图,将第二高效反卷积层的输出输入至第三高效反卷积层。[0118] 第三高效反卷积层包括64个卷积核,各卷积核的大小为3*3,卷积操作的步长为2,用于放大输出特征图的大小。将第三高效反卷积层的输出经过相应的BN层和Relu层之后,输出为64个像素为16*16的特征图。将Relu层的输出直接输入至第四卷积层。[0119] 第四高效反卷积层包括64个卷积核,各卷积核的大小为3*3,卷积操作的步长为2。将第四高效反卷积层的输出经过相应的BN层和Relu层之后,输出为64个像素为32*32的特征图。将Relu层的输出直接输入至第五卷积层。[0120] 第五高效反卷积层包括32个卷积核,各卷积核的大小为3*3,卷积操作的步长为1,用于放大输出特征图的大小。将第五高效反卷积层的输出经过相应的BN层和Relu层之后,输出为32个像素为32*32的特征图。将Relu层的输出直接输入至第六卷积层。[0121] 第六高效反卷积层包括32个卷积核,各卷积核的大小为3*3,卷积操作的步长为2。将第六高效反卷积层的输出经过相应的BN层和Relu层之后,输出为32个像素为64*64的特征图。将Relu层的输出直接输入至第七卷积层。[0122] 第七高效反卷积层包括16个卷积核,各卷积核的大小为3*3,卷积操作的步长为1。将第七高效反卷积层的输出经过相应的BN层和Relu层之后,输出为16个像素为64*64的特征图。将Relu层的输出直接输入至第八卷积层。[0123] 第八高效反卷积层包括16个卷积核,各卷积核的大小为3*3,卷积操作的步长为2。将第七高效反卷积层的输出经过相应的BN层和Relu层之后,输出为16个像素为128*128的特征图。将Relu层的输出直接输入至第一普通反卷积层。[0124] 第一普通反卷积层包括3个卷积核,各卷积核的大小为3*3,卷积操作的步长为1。第一普通反卷积层的输出再输入到第二卷积层,并对第二卷积层的输出进行BN规范化和Relu激活处理。第二卷积层包括3个卷积核,各卷积核的大小为3*3,卷积操作的步长为1。将第二卷积层的输出输入至最后一层普通反卷积层,即第二普通反卷积层。第二普通反卷积层包括3个卷积核,各卷积核的大小为3*3,卷积操作的步长为1。对第二普通反卷积层的输出进行BN规范化和Relu激活处理,得到纹理位置图。[0125] 预设人脸关键点定位模型的网络结构还可以包括连接到第二普通反卷积层的欧氏距离层,该欧氏距离层对纹理位置图以及训练采用的样本人脸图像集的位置标签进行计算,得到预设人脸关键点定位模型的损失函数值,采用梯度下降算法根据损失函数值更新模型的网络参数。[0126] 应该理解的是,虽然图2、3、7及8的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2、3、7及8中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。[0127] 在一个实施例中,如图9所示,提供了一种人脸关键点定位装置,包括:通信模块902、第一输出模块904、第二输出模块906和计算模块910,其中:[0128] 通信模块902,用于获取待处理人脸图像。[0129] 第一输出模块904,用于将待处理人脸图像输入至训练后的人脸关键点定位模型,人脸关键点定位模型包括编码子网络以及解码子网络;通过编码子网络对待处理人脸图像进行预测运算,输出第一特征图,将第一特征图以及待处理人脸图像输入至解码子网络的解码处理层。[0130] 第二输出模块906,用于通过解码处理层中的第一预设反卷积层对待处理人脸图像进行反卷积处理,得到第二特征图,对第二特征图进行特征筛选,将筛选后的特征图与第二特征图进行拼接处理,输出第三特征图,将第三特征图以及第一特征图输入至下一个解码处理层,直至解码子网络的最后一个解码处理层输出纹理位置图。[0131] 计算模块910,用于根据纹理位置图以及预设索引计算得到待处理人脸图像对应的人脸关键点特征信息。[0132] 在一个实施例中,第一预设反卷积层包括注意力层和连接层,第二输出模块906还用于通过注意力层提取第二特征图中各通道特征对应的权重参数,生成提取结果;将提取结果以及第二特征图输入至连接层,通过连接层将提取结果与第二特征图进行拼接,输出第三特征图。[0133] 在一个实施例中,第一输出模块904还用于通过编码子网络的编码处理层对待处理图像进行预测运算,得到输出特征图;将编码子网络中的上一个编码处理层的输出特征图和上一个编码处理层的输入特征图进行融合处理;将融合后的特征图输入至下一个编码处理层,直至编码子网络的最后一个编码处理层输出第一特征图。[0134] 在一个实施例中,解码处理层包括融合层,第一输出模块904还用于将第三特征图与第一特征图输入至融合层,通过融合层将第三特征图与第一特征图进行融合处理,得到融合特征图;将融合特征图作为下一个解码处理层的输入。[0135] 在一个实施例中,第一输出模块904还用于通过解码处理层中的输入层对待处理人脸图像进行特征提取;将提取的特征输入至第一预设反卷积层,通过第一预设反卷积层对提取的特征进行特征删减处理。[0136] 在一个实施例中,上述装置还包括:[0137] 图像集获取模块,用于获取样本人脸图像集;[0138] 第一输出模块904,还用于将样本人脸图像集输入至预设人脸关键点定位模型,通过预设人脸关键点定位模型的编码子网络,输出第一特征图;[0139] 第二输出模块906,还用于将第一特征图以及样本人脸图像集输入至预设人脸关键点定位模型的解码子网络,输出纹理位置图以及预设人脸关键点定位模型的损失函数值;[0140] 条件判断模块,用于当损失函数值满足预设条件时,停止对预设人脸关键点定位模型进行训练,得到训练后的人脸关键点定位模型。[0141] 在一个实施例中,图像集获取模块,还用于获取原始人脸图像集;获取原始人脸图像集中各人脸图像对应的位置标签;根据位置标签进行三维人脸重建,将重建后的人脸进行空间渲染,得到样本纹理位置图,将样本纹理位置图作为训练标签;对原始人脸图像集以及所述训练标签进行归一化处理,得到样本人脸图像集。[0142] 关于人脸关键点定位装置的具体限定可以参见上文中对于人脸关键点定位方法的限定,在此不再赘述。上述人脸关键点定位装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。[0143] 在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图10所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储训练后的人脸关键点定位模型。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种人脸关键点定位方法。[0144] 本领域技术人员可以理解,图10中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。[0145] 在一个实施例中,提供了一种计算机设备,包括存储器和处理器,该存储器存储有计算机程序,该处理器执行计算机程序时实现上述各个实施例中的步骤。[0146] 在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述各个实施例中的步骤。[0147] 本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。[0148] 以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。[0149] 以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

专利地区:广东

专利申请日期:2020-09-18

专利公开日期:2024-07-26

专利公告号:CN112115860B


以上信息来自国家知识产权局,如信息有误请联系我方更正!
电话咨询
读内容
搜本页
回顶部