人体三维重建(六)——虚拟试衣方案

获得准确的三维人体模型通常是虚拟试衣的第一步,随后还需要合身且具有真实感的三维服装模拟。其中涉及的是人体与服装之间的交互技术以及服装建模技术(暂不考虑真实感渲染)。如图1所示。

图1 虚拟试衣的相关技术

本次将关注一个虚拟试衣领域的热点问题,即如何高效复用现有的三维服装进行自动化服装生成、编辑或者是将其试穿到不同的三维人体身上进行服装的个性化定制。将现有工作分为基于几何优化的方法基于数据驱动的方法,并分别进行介绍。

基于几何优化的方法

 研究者常常利用基于几何优化方法来完成服装编辑变形。Umetani等人[81]提出了一个交互式服装建模系统,用户可以在服装二维裁片和三维成衣上进行双向交互式编辑。通过简单拖拽编辑后的服装,可在虚拟人体模特上展示编辑后服装的试穿效果,如图2所示。


图2 Umetani 等人 [81] 的工作

Bartle等人[82]也提出了一个交互式服装建模系统,设计师根据直观的视觉感知直接在三维空间中编辑或组装服装模型,而编辑后的三维服装可自动产生二维裁片模式,可用于后续设计、生产、放码等用途,如图3所示。

图3 Bartle 等人 [82] 的工作

还有一些研究者利用几何优化方法完成服装在不同人体之间的个性化试穿,常用于服装的个性化定制。Brouet等人[83]提出了一套自动化的服装迁移方法,该方法能够在保留服装款式的同时,完成服装在不同体型人体之间的试穿。该方法首先将服装裁片分级(Pattern-grading)中用到的一些准则重新形式化为一系列的几何约束,包括服装形状、款式、比例协调性以及合身程度。然后通过调整虚拟服装的尺寸外加适当的变形来完成服装向目标人体的迁移试穿。该方法保证迁移后的服装款式不发生改变。由于迁移过程在三维空间下进行,服装模型最终需要转化成二维裁片用于生产。如图4所示。

图4 Brouet 等人 [83] 的工作

 Meng等人[86]提出先前的服装自动缩放方法会使服装表面沿着人体的表面发生扭曲,但这种扭曲在非紧身服装下会变成严重的失真变形。为解决该问题,他们提出了一种在自动缩放服装尺寸以适应不同体型人体的过程中,约束布料形状的方法。该方法的主要局限在于需要为不同体型的人体网格预先设置严格的对应关系。而且,上述两个工作仅能在姿态相似的不同人体之间完成服装试穿。

图5 Li 等人 [84] 的工作

另外一些研究者则将人体姿态引入到个性化试穿中。Li等人[84]提出了一种针对不同姿态人体的服装迁移方法,该方法首先为人体与服装设置蒙皮关系,并通过将一个人体往另一个人体变形的方式实现服装重定向。如图5所示。但是该方法并不完全自动,在构造服装与人体蒙皮时通常需要人工操作。另一方面,该方法的服装迁移过程容易造成服装的严重自碰撞。

图6 Lee 等人 [85] 的工作

Lee等人[85]提出了一套自动将服装从参考人体迁移到其它不同姿态人体的框架。如图6所示。但是该方法在服装迁移中,难以保证服装的尺寸大小不发生改变。本文注意到在一些场景下,保证服装在迁移过程中的尺寸不变是必要的,因为这是评估当前尺寸服装是否合适当前身材人体的基础,可用于尺码推荐、舒适度分析。然而现有的工作大多忽略了服装尺寸不变。

基于数据驱动的方法

基于几何优化的方法需要考虑人体与服装之间的复杂几何关系。虽然这类方法的服装模拟精度高、稳定性好,但是涉及到大量的数值计算,难以适用于实时应用。近年来,一些研究者尝试利用数据驱动方法建模服装与人体形变之间的映射关系。具体来说,他们根据大量人体/服装的物理仿真数据,利用某种统计学习模型,学习服装与人体之间的变形映射关系,预测服装模型在新的姿势、体型下的真实感模拟结果。一些研究者使用简单的数据驱动模型来近似服装的形变空间[87,88]。

图7 Aguilar 等人 [87] 的工作

Aguilar等人[87]利用PCA对大量人体/布料仿真数据进行降维处理,构造低维线性子空间对服装与人体的进行低维表示。该低维空间包含服装与人体变形范围。随后他们通过学习到的一个条件动力学模型,根据当前人体低维状态与历史服装状态来估计当前服装低维状态,然后根据低维状态恢复出三维服装,如图7所示。

图8 Wang 等人 [89] 的工作

另外一些研究者将服装模拟解耦成服装的全局形态变形与服装褶皱的局部细节变形。Wang等人[89]提出了一种基于示例的褶皱合成方法。该方法的思路是在基于物理模拟的粗分辨率服装上增加合成的褶皱细节。他们在关节索引的褶皱数据库中,通过关节角插值合成新的褶皱。如图8所示。该方法在紧身服装的模拟效果令人印象深刻,但是并不适用于宽松衣服的模拟。

图9 Zurdo 等人 [90] 的工作

Zurdo等人[90]采用与[89]类似的样例褶皱合成。但是与[89]不同的是,他们的褶皱合成并不依赖于角色姿态,而是学习了一个相对于布料低分辨率状态的形变映射关系,因此可适用于宽松衣服的试穿模拟,如图9所示。

Chen等人[91]提出利用一个二维几何图像(geometryimage)作为三维布料网格的中间表征。他们首先将低分辨率的三维布料网格表示成二维几何图像,利用基于深度学习的图像超分辨率方法直接合成高分辨率布料的几何图像,最后将其转化为三维布料网格。但是上述基于数据驱动的工作中,服装模型仅响应三维人体姿态变化。

图10 Guan 等人 [92] 的工作

DRAPE[92]提出了一种同时响应人体体型与姿势变化的服装变形方法。他们从大量身着服装的人体运动数据中,学习了服装参数相对于人体体型形状与人体网格部件旋转之间的变形映射关系,同时学习姿态相关的服装褶皱生成模型,实现了多种不同姿态和体型人体之间的服装迁移。但是由于他们仅用一个线性模型近似褶皱生成,导致其服装褶皱的真实感不强。如图10所示。

图11 Santesteban 等人 [93] 的工作

近年来,一些研究者开始利用深度学习方法建模服装与人体之间的映射关系。Santesteban等人[93]将着装模拟解耦为两部分,由人体体型控制的全局拟合以及由体型和姿态控制的褶皱生成。作者利用一个多层感知机回归服装相对于人体体型变化的形变映射,同时利用RNN(Recurrent Neural Network,递归神经网络)学习了一个基于人体运动与体型的褶皱生成模型。如图11所示。

图12 Pons 等人 [94] 的工作

GarNet[95]设计了一个双流网络结构用于分别提取人体特征与服装特征,并在网络顶部对两个特征进行融合,从而建立人体/服装交互的模型。其中,人体流采用PointNet[96]作为基础,以三维人体点云作为输入提取人体全局特征和匹配特征,服装流则以服装模板和人体流提取出的人体全局特征作为输入,提取服装特征,最后通过一个全连接网络回归相对于服装模板的变形。ClothCap[94]从带纹理的人体三维点云运动数据中分离出服装参数化模型与SMPL人体参数化模型,优化求解服装相对于人体的偏移变化并将其用于新的人体。如图12所示。

参考文献 

接上篇参考文献

[81] UMETANI N, KAUFMAN D M, IGARASHI T, etal. Sensitive couture for interactive garment modeling and editing.[J]. ACMTrans. Graph., 2011, 30(4):90.

[82] BARTLE A, SHEFFER A, KIM V G, et al.Physics-driven pattern adjustment for direct 3d garment editing.[J]. ACM Trans.Graph., 2016, 35(4):50-1.

[83] BROUET R, SHEFFER A, BOISSIEUX L, etal. Design preserving garment transfer[J]. ACM Transactions on Graphics, 2012,31(4):Article-No.

[84] LI J, YE J, WANG Y, et al. Fitting 3dgarment models onto individual human models[J]. Computers and Graphics, 2010,34(6):742-755.

[85] LEE Y, MA J, CHOI S. Automaticpose-independent 3d garment fitting[J]. Computers and Graphics, 2013,37(7):911-922.

[86] MENG Y, WANG C C, JIN X. Flexibleshape control for automatic resizing of apparel products[J]. Computer-AidedDesign, 2012, 44(1):68-76.

[87] DEAGUIAR E, SIGAL L, TREUILLE A, etal. Stable spaces for real-time clothing[J]. ACM Transactions on Graphics(TOG), 2010, 29(4):1-9.

[88] KIM D, KOH W, NARAIN R, et al.Near-exhaustive precomputation of secondary cloth effects[J]. ACM Transactionson Graphics (TOG), 2013, 32(4):1-8.

[89] WANG H, HECHT F, RAMAMOORTHI R, et al.Example-based wrinkle synthesis for clothing animation[M]//ACM SIGGRAPH 2010papers. 2010: 1-8.

[90] ZURDO J S, BRITO J P, OTADUY M A.Animating wrinkles by example on non-skinned cloth[J]. IEEE Transactions onVisualization and Computer Graphics, 2012, 19(1):149-158.

[91] CHEN L, YE J, JIANG L, et al.Synthesizing cloth wrinkles by cnn-based geometry image superresolution[J].Computer Animation and Virtual Worlds, 2018, 29(3-4):e1810.

[92] GUAN P, REISS L, HIRSHBERG D A, et al.Drape: Dressing any person[J]. ACM Transactions on Graphics (TOG), 2012,31(4):1-10.

[93] SANTESTEBAN I, OTADUY M A, CASAS D.Learning-based animation of clothing for virtual try-on[C]//Computer GraphicsForum: volume 38. Wiley Online Library, 2019: 355366.

[94] PONS-MOLL G, PUJADES S, HU S, et al.Clothcap: Seamless 4d clothing capture and retargeting[J]. ACM Transactions onGraphics (TOG), 2017, 36(4):1-15.

[95] GUNDOGDUE, CONSTANTINV, SEIFODDINIA,et al. Garnet: Atwo-stream network for fast and accurate 3d clothdraping[C]//Proceedings of the IEEE/CVF International Conference on ComputerVision. 2019: 8739-8748.

[96] QI C R, SU H, MO K, et al. Pointnet:Deep learning on point sets for 3d classification andsegmentation[C]//Proceedings of the IEEE conference on computer vision andpattern recognition. 2017: 652-660.

你可能感兴趣的:(人体三维重建(六)——虚拟试衣方案)