首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

一种面向虚拟服装秀的宽松服装动画生成方法 

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

申请/专利权人:东华大学

摘要:本发明涉及一种面向虚拟服装秀的宽松服装动画生成方法,包括以下步骤:使用SMPL人体运动序列以及服装样板作为输入数据;2构建并训练粗糙服装变形预测网络模型,将运动序列以及服装网格数据送入训练后的粗糙服装变形预测网络得到服装粗糙变形;3引入服装合身度和变形度属性来丰富服装网格特征,并构建训练精细服装变形预测网络模型,得到宽松服装蒙皮权重和精细服装变形;4使用线性混合蒙皮算法对预测后的服装样板进行蒙皮变形,得到相应姿态下的服装变形;解决了面向虚拟服装秀中宽松服装在变形过程中局部褶皱不够明显或消失的问题,根据服装属性、运动类别和身体运动序列来丰富宽松三维服装在变形过程中的褶皱。

主权项:1.一种面向虚拟服装秀的宽松服装动画生成方法,其特征在于,包括如下步骤:步骤1使用SMPL人体运动序列以及服装样板作为输入数据,运动序列包括姿态与体型数据,服装样板为服装的三维网格数据;步骤2构建并训练粗糙服装变形预测网络模型,将运动序列以及服装网格数据送入训练后的粗糙服装变形预测网络得到服装粗糙变形;步骤2中的粗糙服装变形预测网络模型,包括一个运动类别编码器和加入注意力模块Attention的2个门控神经单元GRU,其中加入注意力模块的GRU计算公式如下:GRU的计算:更新门:zt=σWz·[ht-1,xt]重置门:rt=σWr·[ht-1,xt]更新隐藏状态:最终隐藏状态:Attention机制:计算注意力权重:eti=scoreht,hi,这里的score是点积;对权重进行归一化:αti是归一化后的权重;利用权重加权求和得到注意力向量:结合GRU和Attention:将GRU的输出与注意力向量进行拼接:gt=[ht,at],gt为最终隐藏状态;最终输出:yt=softmaxWy·gt+by,yt为t时刻服装变形偏移量;在这个过程中,ht表示GRU的隐藏状态,xt表示输入序列的时间步t的向量,zt值来决定当前时刻的输入与前一时刻记忆信息的融合比例,zt越大表示前一时刻的记忆信息融入的越多,ht-1为上一节点传递的隐状态,rt值来决定前一时刻的记忆是否被遗忘,rt越小表示前一时刻的记忆信息被遗忘得越多,为候选隐状态,是一种临时隐状态,hi是指在中的每一个时间步的隐藏状态,整个序列为从第1个时间步到第T个时间步,Wz、Wr、Wh、Wy分别是权重矩阵,by是偏置向量,eti表示时间步t对时间步i的评分,T是输入序列的长度,σ表示sigmoid函数,⊙表示逐元素乘法;使用独热向量来表示运动类型,应用由多层感知器组成的运动条件编码器Em来提取条件特征Zm,然后将其与身体运动序列连接起来,构建粗粒度模块的输入θ1,…,θt为人体1-t时刻的姿态,β为人体体型,模块的输出是包含所有帧的粗服装序列为1-t时刻的粗糙服装变形;其中粗糙服装变形预测网络模型训练:在训练之前使用拉普拉斯平滑对数据集中的服装样板进行粗化,学习率设置为0.0001,训练周期为2000,使用均方误差作为损失函数;步骤3引入服装合身度和变形度属性来丰富服装网格特征,并构建训练精细服装变形预测网络模型,得到宽松服装蒙皮权重和精细服装变形;步骤3中的服装合身度,具体来说就是通过测量服装网格顶点Vg与人体表面相应顶点Vb之间的距离来衡量服装的松紧程度;对于给定的服装T,采用K近邻算法,根据服装顶点与人体网格上顶点的距离D=d1,d2,…,dn对服装顶点进行二分类,di为第i个服装顶点与最近的人体网格上顶点的距离,可表示为:其中,i,j分别表示第i个服装顶点和第j个身体顶点,vb是最靠近vg的顶点,vb和vg分别代表人体和服装的顶点;通过分类,可以推导出每个顶点的合身属性,从而提供了一个更细致的特征代表第i个服装顶点的合身度属性,表示使用K近邻算法对第i个服装顶点的分类结果;步骤3中的服装变形度,与服装内局部褶皱的存在和分布有关,通过评估服装网格的密度来评估;服装网格所经历的变形可以用曲率作为可靠的度量指标进行量化;曲率可以有效衡量曲面的弯曲程度;采用高斯曲率KGC作为量化变形的指标;高斯曲率的定义如下:其中αk表示与第K个三角形面相关的角度,表示由第i个服装顶点周围F个相邻三角形面形成的邻域,Si表示该邻域所包含的面积,表示第i个服装顶点的高斯曲率;步骤3中的精细服装变形预测网络模型,包含一个服装属性编码器和一个基于残差连接的图注意力网络,将新获得的服装属性与原始顶点属性进行整合,将服装看作一张图G*=V,E,U,ZA,其中,V表示服装网格节点,E表示网格边缘,U表示邻接矩阵,ZA表示服装属性特征;对于每个节点,特征定义为vi=qi,ui,vi表示服装网格特征,由顶点三维坐标qi∈R3,该顶点的面的法向量的平均值ui组成;然后将G*送入图注意力网络,它可以学习服装顶点之间的物理交互,并生成由顶点偏移表示的精细褶皱;为了提高模型的泛化能力并降低计算复杂度,根据顶点的分类结果形成簇;在同一个簇中,相似的节点会被组合在一起,从而便于捕捉服装图中的局部信息;其中,服装属性编码器,设计了一种服装属性编码器Eab,专门关注每个服装顶点的属性;它将服装顶点的合身度和变形度作为单独的输入,从而获得这两种属性的特征编码;这些特征ZA编码随后通过一个MLP进行组合,从而得到每个服装顶点的独立属性;通过属性编码器的整个过程可以表示为: 其中分别用于编码合身度和变形度,Als,Adef代表合身度和变形度特征;步骤4使用线性混合蒙皮算法对预测后的服装样板进行蒙皮变形,得到相应姿态下的服装变形;步骤4中的线性混合蒙皮算法,通过输入静止姿态形状T、骨骼变换矩阵和蒙皮权重,可以实现对静止姿势形状的变形,基本公式如下:Mβ,θ=WTβ,θ,Jβ,θ,w,其中,Tβ,θ=T+Bβ+Bθ;B是混合形状,表示由于T与身体形状β和身体姿态θ产生的网格偏移;W是骨骼变换矩阵,J是骨架参数、w是蒙皮权重;具体将线性混合蒙皮算法应用于服装的公式如下:将服装表示为受人体运动序列影响的粗变形和受服装属性影响的细变形,它们可以定义为: 其中,RM和RG代表预测粗变形和精细变形模型,分别将人体运动和服装属性作为输入;TG为服装模板,Wgar为服装蒙皮权重,分别为由粗糙服装变形预测网络模型,精细服装变形预测网络模型预测得出的变形后的服装;步骤5将模型生成出的变形后的服装网格与人体网格进行碰撞处理,修正穿透节点,将人体网格与修正后的变形服装保存为.obj文件,导入blender进行逐帧渲染得到虚拟服装动画。

全文数据:

权利要求:

百度查询: 东华大学 一种面向虚拟服装秀的宽松服装动画生成方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

相关技术
相关技术
相关技术
相关技术