专利名称:基于RGB单图实时人脸三维图像重建方法、装置及电子设备
专利类型:实用新型专利
专利申请号:CN202110008709.6
专利申请(专利权)人:厦门美图之家科技有限公司
权利人地址:福建省厦门市厦门火炬高新区软件园华讯楼C区B1F-089
专利发明(设计)人:刘志辉,张毓峰
专利摘要:本申请实施例中提供了一种基于RGB单图实时人脸三维图像重建方法、装置及电子设备,所述方法包括接收单张RGB单图;将RGB单图输入至由人脸图像2D数据与人脸3D数据作为训练集且采用不同的损失监督方式训练得到人脸三维重建网络;将人脸三维重建网络中解码得到的UV形状图与UV纹理图组合得到重建后的人脸,通过模型变换矩阵渲染得到人脸三维图像。述方法还包括:对人脸三维重建网络的输出进行降维系数化,通过小模型学习人脸三维重建网络模型的拟合系数,得到实时人脸三维重建模型,在手机端实现实时高精度的人脸三维的重建。通过本申请的处理方案,提高了三维稠密人脸点的实时预测精度,提高了基于RGB单图实时人脸三维图像重建效果与速度。
主权利要求:
1.一种基于RGB单图实时人脸三维图像重建方法,其特征在于,所述方法包括:将人脸图像2D数据与人脸3D数据作为训练集且采用不同的损失监督方式训练得到人脸三维重建网络模型,并生成UV形状图、UV纹理图和模型变换矩阵参数,其中,所述人脸图像2D数据中标注稀疏的2D人脸点,所述稀疏的2D人脸点包括五官及轮廓点,所述人脸3D数据为实验环境采集到的人脸三维数据,具有真实的3D点标签;
所述人脸3D数据在训练时,根据所述3D点标签,直接监督生成对应的所述UV形状图、所述UV纹理图和所述模型变换矩阵参数;
所述人脸图像2D数据在训练时,通过约束条件直接回归生成所述UV形状图、所述UV纹理图和所述模型变换矩阵参数;
所述方法还包括:对人脸三维重建网络模型的输出进行降维系数化,生成形状基和纹理基,其中,对人脸三维重建网络模型的输出进行降维系数化,包括:将所述UV形状图与所述UV纹理图分别进行pca分解,选择主成份维度分别是60维,100维,进行降维系数化,同时得到形状基和纹理基;
构建小模型,通过所述小模型学习所述形状基和所述纹理基对应的拟合系数,得到实时人脸三维重建模型;
接收单张RGB单图;
将所述RGB单图输入至所述实时人脸三维重建模型,实时重建3D人脸得到人脸三维图像。
2.根据权利要求1所述的基于RGB单图实时人脸三维图像重建方法,其特征在于,所述人脸3D数据,包括:通过三维采集设备采集的人脸三维数据;
对采集的人脸三维数据进行标准化注册;
添加多种表情、角度和光照变化,模拟真实环境下的人脸情况;
通过渲染得到对应的人脸3D数据。
3.根据权利要求1所述的基于RGB单图实时人脸三维图像重建方法,其特征在于,所述约束条件包括第一约束条件和第二约束条件,所述第一约束条件为重建人脸投影之后的稀疏人脸点与原图的稀疏人脸点一致,所述第二约束条件为通过重建后的人脸的特征要与输入图的人脸特征一致。
4.根据权利要求3所述的基于RGB单图实时人脸三维图像重建方法,其特征在于,所述人脸图像2D数据通过约束条件直接回归的UV形状图、UV纹理图通过GAN网络后判别其是否是真实的形状和纹理用于约束生成的质量。
5.一种基于RGB单图实时人脸三维图像重建装置,其特征在于,包括:
图像获取装置,所述图像获取装置接收单张RGB单图;
人脸三维图像重建装置,将人脸图像2D数据与人脸3D数据作为训练集且采用不同的损失监督方式训练得到人脸三维重建网络模型,并生成UV形状图、UV纹理图和模型变换矩阵参数,其中,所述人脸图像2D数据中标注稀疏的2D人脸点,所述稀疏的2D人脸点包括五官及轮廓点,所述人脸3D数据为实验环境采集到的人脸三维数据,具有真实的3D点标签;所述人脸3D数据在训练时,根据所述3D点标签,直接监督生成对应的所述UV形状图、所述UV纹理图和所述模型变换矩阵参数;所述人脸图像2D数据在训练时,通过约束条件直接回归生成所述UV形状图、所述UV纹理图和所述模型变换矩阵参数;所述人脸三维图像重建装置还包括:对人脸三维重建网络模型的输出进行降维系数化,生成形状基和纹理基,其中,对人脸三维重建网络模型的输出进行降维系数化,包括:将所述UV形状图与所述UV纹理图分别进行pca分解,选择主成份维度分别是60维,100维,进行降维系数化,同时得到形状基和纹理基;构建小模型,通过所述小模型学习所述形状基和所述纹理基对应的拟合系数,得到实时人脸三维重建模型;接收单张RGB单图;将所述RGB单图输入至所述实时人脸三维重建模型,实时重建3D人脸得到人脸三维图像。
6.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行前述权利要求1‑4中任一项所述的基于RGB单图实时人脸三维图像重建方法。
7.一种非暂态计算机可读存储介质,该非暂态计算机可读存储介质存储计算机指令,该计算机指令用于使该计算机执行前述权利要求1‑4中任一项所述的基于RGB单图实时人脸三维图像重建方法。 说明书 : 基于RGB单图实时人脸三维图像重建方法、装置及电子设备技术领域[0001] 本申请涉及人脸三维重建技术领域,尤其涉及一种基于RGB单图实时人脸三维图像重建方法、装置及电子设备。背景技术[0002] 随着计算机技术的快速发展,实时人脸三维重建有着非常广泛的应用,已经被大量应用于各行各业,例如三维上妆,表情驱动,人脸识别,医疗美容等等。在人脸三维重建技术领域,如何重建出精度高且具有真实感的人脸三维模型,这一极具挑战性的难题一直困扰着广大的科研学者。相比于二维平面,立体图形最大的优势在于它能反映更多的空间信息,这是二维平面所不具备的。因而越来越多的学者意识其可挖掘的应用价值和广泛的应用前景,也因此人脸三维重建技术目前已成为计算机视觉领域最受欢迎的研究方向之一。如今不少学者都在借助形变模型来研究人脸三维重建技术。目前三维人脸重建方法可大致分为基于硬件仪器扫描的方法和基于图像的重建方法。[0003] 使用仪器扫描获取深度图虽然可以获得较高质量的三维人脸模型,但被扫描对象需与扫描仪器进行交互,且扫描期间目标对象需尽可能保持静止;通过扫描设备扫描得到三维人脸模型后,还需对扫描数据进行一系列复杂的处理才能得到较高质量的三维人脸模型。另外该方法依赖于特定的硬件支持,需要深度摄像头,价格高、操作较复杂性,使该方法难以普及。[0004] 基于图像的重建方法包括基于统计模型的三维人脸重建、基于多视几何的三维人脸重建、基于光照立体的三维人脸重建以及近年来发展迅速的基于机器学习的三维人脸重建。基于图像的重建方法通常通过多视图的图片估计深度,需要双目摄像头。基于统计模型的三维人脸重建方法依赖于大量的三维人脸数据,这些数据一般是对扫描得到的人脸模型进行PCA(PrincipalComponentsAnalysis)处理后获得的。另外,该方法重建结果严重依赖于数据库中的人脸模型,数据库中模型空间有限,限制了重建灵活性。传统基于多视几何的方法需获取不同角度的多张正交人脸图像,为计算图像匹配点,首先需足够多的匹配点数量,然后匹配精确度也要求很高。而基于机器学习的方法则需要大量三维人脸数据用以训练,其最终重建结果同样依赖于训练样本数量,与基于统计模型的方法有相同的弊端。当前也存在一些通过单张rgb图片来估计人脸三维信息的方法,但是,发明人在研究过程中发现,一些基于现有的3Dmm模型(bfm)往往精度比较低,无法满足很多应用需求。另外,存在一些比较精准单图重建三维方法则依赖于比较大的深度学习网络,无法满足手机端实时的需求。发明内容[0005] 有鉴于此,本申请实施例提供一种基于RGB单图实时人脸三维图像重建方法、装置及电子设备,至少部分解决现有技术中存在的问题,能够在手机端实现实时高精度的人脸三维的重建。[0006] 第一方面,本申请实施例提供了一种基于RGB单图实时人脸三维图像重建方法,所述方法包括:[0007] 接收单张RGB单图;[0008] 将RGB单图输入至由人脸图像2D数据与人脸3D数据作为训练集且采用不同的损失监督方式训练得到人脸三维重建网络;[0009] 将人脸三维重建网络中解码得到的UV形状图与UV纹理图组合得到重建后的人脸,通过模型变换矩阵渲染得到人脸三维图像。[0010] 根据本申请实施例的一种具体实现方式,所述人脸图像2D数据中标注稀疏的2D人脸点,所述稀疏的2D人脸点包括五官及轮廓点。[0011] 根据本申请实施例的一种具体实现方式,所述人脸3D数据为实验环境采集到的人脸三维数据,具有真实的3D点标签,包括:[0012] 通过三维采集设备采集的人脸三维数据;[0013] 对采集的人脸三维数据进行标准化注册;[0014] 添加多种表情、角度和光照变化,模拟真实环境下的人脸情况;[0015] 通过渲染得到对应的人脸3D数据。[0016] 根据本申请实施例的一种具体实现方式,所述人脸3D数据在训练时,根据所述3D点标签,直接监督生成对应的UV形状图、UV纹理图和模型变换矩阵参数。[0017] 根据本申请实施例的一种具体实现方式,所述人脸图像2D数据通过约束条件直接回归UV形状图、UV纹理图和模型变换矩阵参数;[0018] 所述约束条件包括第一约束条件和第二约束条件,所述第一约束条件为重建人脸投影之后的稀疏人脸点与原图的稀疏人脸点一致,所述第二约束条件为通过重建后的人脸的特征要与输入图的人脸特征一致。[0019] 根据本申请实施例的一种具体实现方式,所述人脸图像2D数据通过约束条件直接回归的UV形状图、UV纹理图通过GAN网络后判别其是否是真实的形状和纹理用于约束生成的质量。[0020] 根据本申请实施例的一种具体实现方式,所述将人脸三维重建网络中解码得到的UV形状图与UV纹理图组合得到重建后的人脸,通过模型变换矩阵渲染得到人脸三维图像,包括:[0021] 采用U型网络将输入图像进行编码;[0022] 编码输出三个分支分别进行解码,第一个分支解码得到UV形状图,第二个分支解码得到UV纹理图,第三个分支解码得到模型变换矩阵参数;[0023] 将所述UV形状图与所述UV纹理图组合得到重建后的人脸,根据所述模型变换矩阵参数通过模型变换矩阵渲染得到人脸三维图像。[0024] 根据本申请实施例的一种具体实现方式,所述方法还包括:对人脸三维重建网络的输出进行降维系数化,通过小模型学习人脸三维重建网络模型的拟合系数,得到实时人脸三维重建模型。[0025] 根据本申请实施例的一种具体实现方式,所述对人脸三维重建网络的输出进行降维系数化,包括:[0026] 将所述UV形状图与所述UV纹理图分别进行pca分解;选择主成份维度分别是60维,100维,进行降维系数化,同时得到形状基和纹理基。[0027] 第二方面,提供了一种基于RGB单图实时人脸三维图像重建装置,包括:[0028] 图像获取装置,所述图像获取装置接收单张RGB单图;[0029] 人脸三维图像重建装置,所述人脸三维图像重建装置将RGB单图输入至由人脸图像2D数据与人脸3D数据作为训练集且采用不同的损失监督方式训练得到人脸三维重建网络;将人脸三维重建网络中解码得到的UV形状图与UV纹理图组合得到重建后的人脸,通过模型变换矩阵渲染得到人脸三维图像。[0030] 第三方面,提供了一种电子设备,所述电子设备包括:[0031] 至少一个处理器;以及,[0032] 与所述至少一个处理器通信连接的存储器;其中,[0033] 所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行前述第一方面或第一方面的任一实现方式中的基于RGB单图实时人脸三维图像重建方法。[0034] 第四方面,一种非暂态计算机可读存储介质,该非暂态计算机可读存储介质存储计算机指令,该计算机指令用于使该计算机执行前述第一方面或第一方面的任一实现方式中的基于RGB单图实时人脸三维图像重建方法。[0035] 第五方面,本申请实施例还提供了一种计算机程序产品,该计算机程序产品包括存储在非暂态计算机可读存储介质上的计算程序,该计算机程序包括程序指令,当该程序指令被计算机执行时,使该计算机执行前述第一方面或第一方面的任一实现方式中的基于RGB单图实时人脸三维图像重建方法。[0036] 本申请实施例中的基于RGB单图实时人脸三维图像重建方法,所述方法包括接收单张RGB单图;将RGB单图输入至由人脸图像2D数据与人脸3D数据作为训练集且采用不同的损失监督方式训练得到人脸三维重建网络;将人脸三维重建网络中解码得到的UV形状图与UV纹理图组合得到重建后的人脸,通过模型变换矩阵渲染得到人脸三维图像。通过本申请的处理方案,提高了三维稠密人脸点的实时预测精度,提高了基于RGB单图实时人脸三维图像重建效果与速度。附图说明[0037] 为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。[0038] 图1为本申请实施例的一种基于RGB单图实时人脸三维图像重建方法的流程图;[0039] 图2为本申请实施例的训练流程图;[0040] 图3为本申请实施例的标准uv图;[0041] 图4为本申请实施例的系数化之后的流程结构图;[0042] 图5为本申请实施例的小模型的重构流程图;[0043] 图6为本申请实施例的基于RGB单图实时人脸三维图像重建装置的结构示意图;[0044] 图7为本申请实施例的电子设备的结构示意图。具体实施方式[0045] 下面结合附图对本申请实施例进行详细描述。[0046] 以下通过特定的具体实例说明本申请的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本申请的其他优点与功效。显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。本申请还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本申请的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。[0047] 要说明的是,下文描述在所附权利要求书的范围内的实施例的各种方面。应显而易见,本文中所描述的方面可体现于广泛多种形式中,且本文中所描述的任何特定结构及/或功能仅为说明性的。基于本申请,所属领域的技术人员应了解,本文中所描述的一个方面可与任何其它方面独立地实施,且可以各种方式组合这些方面中的两者或两者以上。举例来说,可使用本文中所阐述的任何数目个方面来实施设备及/或实践方法。另外,可使用除了本文中所阐述的方面中的一或多者之外的其它结构及/或功能性实施此设备及/或实践此方法。[0048] 还需要说明的是,以下实施例中所提供的图示仅以示意方式说明本申请的基本构想,图式中仅显示与本申请中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。[0049] 另外,在以下描述中,提供具体细节是为了便于透彻理解实例。然而,所属领域的技术人员将理解,可在没有这些特定细节的情况下实践所述方面。[0050] 本申请实施例中提供了一种基于RGB单图实时人脸三维图像重建方法,,所述方法包括接收单张RGB单图;将RGB单图输入至由人脸图像2D数据与人脸3D数据作为训练集且采用不同的损失监督方式训练得到人脸三维重建网络;将人脸三维重建网络中解码得到的UV形状图与UV纹理图组合得到重建后的人脸,通过模型变换矩阵渲染得到人脸三维图像。通过本申请的处理方案,提高了三维稠密人脸点的实时预测精度,提高了基于RGB单图实时人脸三维图像重建效果与速度。[0051] 接下来,参考附图,具体描述本申请实施例的基于RGB单图实时人脸三维图像重建方法。[0052] 参见图1,本申请实施例提供的一种基于RGB单图实时人脸三维图像重建方法,包括:[0053] S100:接收单张RGB单图;[0054] S200:将RGB单图输入至由人脸图像2D数据与人脸3D数据作为训练集且采用不同的损失监督方式训练得到人脸三维重建网络;[0055] S300:将人脸三维重建网络中解码得到的UV形状图与UV纹理图组合得到重建后的人脸,通过模型变换矩阵渲染得到人脸三维图像。[0056] 为了实现人脸三维图像重建,需要实现实时预测精准的稠密3D人脸点,在本实施例中,是基于半监督的人脸重建。[0057] 根据本申请实施例的一种具体实现方式,所述人脸图像2D数据中标注稀疏的2D人脸点,所述稀疏的2D人脸点包括五官及轮廓点。[0058] 根据本申请实施例的一种具体实现方式,所述人脸3D数据为实验环境采集到的人脸三维数据,具有真实的3D点标签,包括:[0059] 通过三维采集设备采集的人脸三维数据;[0060] 对采集的人脸三维数据进行标准化注册;[0061] 添加多种表情、角度和光照变化,模拟真实环境下的人脸情况;[0062] 通过渲染得到对应的人脸3D数据。[0063] 在本实施例中,因为大批量的不同环境场景下的三维人脸数据比较难以获取,而2D数据相对比较容易获取,所以本实施例通过2D和3D相结合的方式来实现人脸重建任务。[0064] 3D数据采用的是在实验环境采集到的人脸三维数据,本实施例通过对这部分数据进行标准化注册之后,添加各种表情、角度和光照变化,模拟真实环境下的人脸情况,然后通过渲染的方式得到对应的人工2D图,这部分数据是通过实验室的三维采集设备获取的,是有真实的3D点标签。[0065] 2D数据则来自普通的人脸图像,并标注稀疏的2D人脸点,主要是五官及轮廓点。然后将人工2D数据与真实的2D图组成整个训练集。[0066] 根据本申请实施例的一种具体实现方式,所述将人脸三维重建网络中解码得到的UV形状图与UV纹理图组合得到重建后的人脸,通过模型变换矩阵渲染得到人脸三维图像,包括:[0067] 采用U型网络将输入图像进行编码;[0068] 编码输出三个分支分别进行解码,第一个分支解码得到UV形状图,第二个分支解码得到UV纹理图,第三个分支解码得到模型变换矩阵参数;[0069] 将所述UV形状图与所述UV纹理图组合得到重建后的人脸,根据所述模型变换矩阵参数通过模型变换矩阵渲染得到人脸三维图像。[0070] 参考图2,为本实施例中由人脸图像2D数据与人脸3D数据作为训练集且采用不同的损失监督方式训练人脸三维重建网络的训练流程图,先使用一个比较大的U型网络(U‑Net),将输入图像进行编码,然后输出三个分支分别进行解码。[0071] 第一个分支是解码出uv形状图,[0072] 第二个分支解码出uv纹理图,[0073] 第三个分支解码出模型变换矩阵参数M。[0074] 然后将形状和纹理组合可以得到重建后的人脸,再通过模型变换矩阵可渲染得到人脸图像。[0075] 其中,形状图和纹理图都是一张标准的256*256*3的图,形状图中的三个通道分别表示的是x\y\z坐标偏离平均脸的值,而uv图中的三个通道分别表示的是rgb值。如图3显示的是标准uv图的坐标位置,256*256=65536个点在uv图中的位置是固定的,从而保证了同一位置上对应的语义是一致的。[0076] 根据本申请实施例的一种具体实现方式,所述人脸3D数据在训练时,根据所述3D点标签,直接监督生成对应的UV形状图、UV纹理图和模型变换矩阵参数。[0077] 根据本申请实施例的一种具体实现方式,所述人脸图像2D数据通过约束条件直接回归UV形状图、UV纹理图和模型变换矩阵参数;[0078] 所述约束条件包括第一约束条件和第二约束条件,所述第一约束条件为重建人脸投影之后的稀疏人脸点与原图的稀疏人脸点一致,所述第二约束条件为通过重建后的人脸的特征要与输入图的人脸特征一致。[0079] 根据本申请实施例的一种具体实现方式,所述人脸图像2D数据通过约束条件直接回归的UV形状图、UV纹理图通过GAN网络后判别其是否是真实的形状和纹理用于约束生成的质量。[0080] 训练过程中不同的数据会采取不同的损失监督:[0081] 对于人工2D图(三维数据渲染出来的人脸3D数据)输入数据,因为存在三维标签,可以分别得到对应的形状图和纹理图标签及变换矩阵参数,训练的时候直接监督生成的形状图和纹理图;[0082] 对于人脸图像2D数据,通过重建人脸投影之后的稀疏人脸点与原图的稀疏人脸点一致,间接约束生成的形状和变换矩阵。同时,所有的数据通过重建后的人脸的特征要与输入图的人脸特征一致,本实施例通过训练好的人脸识别网络构建了人脸特征损失。此外本实施例通过GAN网络来提升生成的形状和纹理质量,生成的纹理和形状图通过GAN网络后判别其是否是真实的形状和纹理来约束生成的质量。[0083] 与一般的回归形状和纹理稀疏的方式不一样,本实施例直接回归形状图和纹理uv图,这样能够利用cnn的强大的拟合能力,使得本实施例的模型能力超过线性模型空间限制,同时通过2D数据和3D数据一起训练的方式,能够在充分利用3D数据的前提下,通过补充的2D数据,使得模型能力更鲁棒,适应各种真实应用场景环境。[0084] 通过这样一个端到端的训练流程,本实施例能够得到一个精准三维重建网络。本实施例通过纹理图和形状图可以得到重建后的人脸。[0085] 虽然这个网络能够比较精确的重构人脸形状和纹理,但是这个网络是比较大,无法在手机端实时重建,因此本实施例通过第二部分来实现模型的系数化和模型压缩。[0086] 根据本申请实施例的一种具体实现方式,所述方法还包括:对人脸三维重建网络的输出进行降维系数化,通过小模型学习人脸三维重建网络模型的拟合系数,得到实时人脸三维重建模型。[0087] 根据本申请实施例的一种具体实现方式,所述对人脸三维重建网络的输出进行降维系数化,包括:[0088] 将所述UV形状图与所述UV纹理图分别进行pca分解;选择主成份维度分别是60维,100维,进行降维系数化,同时得到形状基和纹理基。[0089] 在本实施例中,模型系数化主要是指3Dmm模型化。传统的3Dmm模型是通过对3D数据进行降维,但是因为3D数据规模的限制,很难得到上万id规模的3D数据,因此得到的模型能力是有限的,能难表征不同人种的三维形状特征。而本实施例(1)中所述是直接回归的形状,没有限制在3D数据模型空间,通过上百万的2D数据的加入,使得模型能力比传统的3Dmm模型(如bfm等)强大得多。本实施例的3Dmm模型是在网络输出的形状和纹理基础上构建的。本实施例通过对所有的无表情数据输出形状、纹理,基于这些形状、纹理分别进行pca分解,然后选择主成份维度分别是60维,100维,进行降维系数化,同时得到形状基和纹理基(shape_pca_basis\texture_pca_basis)。系数化之后的流程图如图4所示。[0090] 得到系数化之后,本实施例的小模型将直接学习形状和纹理系数,以及变换矩阵参数。[0091] 因为小模型只需要学习系数,学习难度变小,故可以用比较小的网络就可以实现系数回归,可以使用GoogleSegNet_Small等小网络。为了进一步减少网络计算量,本实施例减少输入图的大小。本实施例将输入图从256*256缩小到128*128,因为人脸模型不会随尺度发生变化,可以只修改投影矩阵的尺度成原来的1/2变能够得到和大输入一样结果,系数不会发生改变。小模型的重建流程如图5所示。通过这样学习到的小模型可以实时重建3D人脸。[0092] 在本实施例中,通过半监督的方式重建出比较准确的人脸形状和纹理,因为是直接回归形状图和纹理图,而不是回归现有模型的形状系数和纹理系数,因此,模拟拟合能力更强,得到的三维稠密点更准。同时本实施例在此基础上对输出空间进行降维系数化,通过小模型学习大模型的拟合系数,能够得到一个又快又准的人脸三维重建模型。[0093] 通过本实施例这种方式,可以得到一个在手机cpu上前向时间只需要10ms左右的三维人脸重建模型。大大降低了重建时间,同时精度要比一般的方法精度更高。[0094] 与上面的方法实施例相对应,参见图6,本申请实施例还提供了一种基于RGB单图实时人脸三维图像重建装置600,包括:[0095] 图像获取装置601,所述图像获取装置601接收单张RGB单图;[0096] 人脸三维图像重建装置602,所述人脸三维图像重建装置602将RGB单图输入至由人脸图像2D数据与人脸3D数据作为训练集且采用不同的损失监督方式训练得到人脸三维重建网络;将人脸三维重建网络中解码得到的UV形状图与UV纹理图组合得到重建后的人脸,通过模型变换矩阵渲染得到人脸三维图像。[0097] 图6所示装置可以对应的执行上述方法实施例中的内容,本实施例未详细描述的部分,参照上述方法实施例中记载的内容,在此不再赘述。[0098] 参见图7,本申请实施例还提供了一种电子设备700,该电子设备包括:[0099] 至少一个处理器;以及,[0100] 与该至少一个处理器通信连接的存储器;其中,[0101] 该存储器存储有可被该至少一个处理器执行的指令,该指令被该至少一个处理器执行,以使该至少一个处理器能够执行前述方法实施例中的基于RGB单图实时人脸三维图像重建方法。[0102] 本申请实施例还提供了一种非暂态计算机可读存储介质,该非暂态计算机可读存储介质存储计算机指令,该计算机指令用于使该计算机执行前述方法实施例中的基于RGB单图实时人脸三维图像重建方法。[0103] 本申请实施例还提供了一种计算机程序产品,该计算机程序产品包括存储在非暂态计算机可读存储介质上的计算程序,该计算机程序包括程序指令,当该程序指令被计算机执行时,使该计算机执行前述方法实施例中的的基于RGB单图实时人脸三维图像重建方法。[0104] 下面参考图7,其示出了适于用来实现本申请实施例的电子设备700的结构示意图。本申请实施例中的电子设备700可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图7示出的电子设备700仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。[0105] 如图7所示,电子设备700可以包括处理装置(例如中央处理器、图形处理器等)701,其可以根据存储在只读存储器(ROM)702中的程序或者从存储装置708加载到随机访问存储器(RAM)703中的程序而执行各种适当的动作和处理。在RAM703中,还存储有电子设备700操作所需的各种程序和数据。处理装置701、ROM702以及RAM703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。[0106] 通常,以下装置可以连接至I/O接口705:包括例如触摸屏、触摸板、键盘、鼠标、图像传感器、麦克风、加速度计、陀螺仪等的输入装置706;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置707;包括例如磁带、硬盘等的存储装置708;以及通信装置709。通信装置709可以允许电子设备700与其他设备进行无线或有线通信以交换数据。虽然图中示出了具有各种装置的电子设备700,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。[0107] 特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置709从网络上被下载和安装,或者从存储装置708被安装,或者从ROM702被安装。在该计算机程序被处理装置701执行时,执行本申请实施例的方法中限定的上述功能。[0108] 需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD‑ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。[0109] 上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。[0110] 上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取至少两个网际协议地址;向节点评价设备发送包括所述至少两个网际协议地址的节点评价请求,其中,所述节点评价设备从所述至少两个网际协议地址中,选取网际协议地址并返回;接收所述节点评价设备返回的网际协议地址;其中,所获取的网际协议地址指示内容分发网络中的边缘节点。[0111] 或者,上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:接收包括至少两个网际协议地址的节点评价请求;从所述至少两个网际协议地址中,选取网际协议地址;返回选取出的网际协议地址;其中,接收到的网际协议地址指示内容分发网络中的边缘节点。[0112] 可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。[0113] 附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。[0114] 描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一获取单元还可以被描述为“获取至少两个网际协议地址的单元”。[0115] 应当理解,本公开的各部分可以用硬件、软件、固件或它们的组合来实现。[0116] 以上所述,仅为本公开的具体实施方式,但本公开的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本公开揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本公开的保护范围之内。因此,本公开的保护范围应以权利要求的保护范围为准。
专利地区:福建
专利申请日期:2021-01-05
专利公开日期:2024-07-26
专利公告号:CN112734910B