VAM 人物制作流程
制作和分析的过程:在这篇分析中,主要介绍大略的过程、可能用到的软件工具以及工作流。这些工具软件的使用都非常复杂,有很多诀窍和坑,在这里篇幅还是主题都不适合讨论,就不做深入了。
本次讨论中的涉及的人物头像是典型的,有很多角度误差、透视变形、修图影响的面部照片。
我查了一下,这是一位叫做糯美子的小网红,网上照片全是AV风,很适合做到vam里,但是问题就是,没有一张公开照片不是重点ps的。
具体到楼主给出的这个照片,我们可以看到带有一点俯视(注意观察她眼珠的位置,可以推测出她在向上看),因为眼睛占面部面积似乎有点夸张,我推测镜头焦距较短,有一定透视畸变。
这两点这导致人物的下巴和嘴显得小,看上去脸比实际的圆。
同时因为曝光过度,脸部的一些横向的结构在照片中比较暧昧,需要详细脑补。
第一步:使用ps调整参考照片
facegen需要正脸照片确认面部关键特征点的五官比例,在有条件时可以提供侧脸照片补充特征点的深度信息。
首先使用ps将面部调整到垂直,此时你可以观察两个眼睛是否在一个水平线上,以及鼻子、嘴这条中线是否垂直来检验结果。同时用透视变形和极化滤镜等工具纠正透视和镜头鱼眼效果带来的畸变。
首先调整垂直和透视畸变:
检查结果发现这个正面还存在几个问题:一是略有一点侧脸,此时丢进facegen会导致后续生成的脸部也是歪的。二是嘴唇刻意撅起来了,影响facegen判断唇形状
还有就是其实照片中的额头部分不完整,可能导致facegen生成的面部整体位置偏突出和下垂,继续重度PS修正:
此时的结果已经可以使用了,我们实际上也还原了原模特的大概真实面目。
第二步用facegen来完成初步头部自动建模和贴图生成。
将正面图片导入facegen,因为只有正面图片,所以面部特征的深度是由facegen自己猜测的,可以在facegen中使用滑块自行调整一下,也可以用鼠标直接拖曳面部表面进行变形修正。
这里请注意,不要随意改变facegen识别点上的面部特征位置,因为那时facegen使用算法严格匹配的,也是一个人面部骨像的最核心部分。
这里我留存了两个结果
一个是直接使用原照片生成的,似乎能保留更多照片中传递的风格
一种是照片重绘纠偏之后的结果,结构上更加合理真实一些
实际操作中,我们可以将多个正面照片的结果同时保留,并在daz中进行按照比例混合使用来追求更符合感官的最终效果
这里顺便提一下foto2vam,这个工具是一个实验性的软件,基本原理是基于深度学习的人工智能内核。众所周知,人工智能和深度学习是要进行样本的学习和训练的,这样才能形成一个闭环做出可用的训练集参数,在f2vam开发时使用的训练集是vam内做出的人物截图,使用的关键morph的参数作为评估结果,用的这个模型进行的训练。实际上一定程度上忽略了肤色、不同光源、镜头焦距畸变等变量。如果你需要增强它的功能,那不仅仅是丢弃现有训练数据重新训练这么简单,你甚至需要增加很多深度学习环节来完成角度猜测之外的重要参数辨别。调参已经是普通人不能接受的活了,大家就别指望还能进行半干预性质的人工智能开发了。
所以我们对foto2vam不用有太大的期望,它可能工作的不错,也可能出来一些很奇怪的结果,目前可以依靠的依然是有人深度参与生成过程的facegen。
第三步 用daz和zb纠正大误差,补充重要特征
facegen生成的morph导入daz后调整一下,如果你生成了多个面部变形器,这时可以尝试按比例混合使用一下,追寻最好的效果。
在这个例子中,我发现原始照片出来的面部效果很差,最终还是使用了调整后的照片生成结果,同时时候用daz的morph调整一些生成中出现的误差,赋予fg生成的贴图看下效果:
基本还行,可以免去进zbrush雕刻。
在有些情景中,你的目标人物会有一些非常有特色的特征,是facegen和daz没法实现的,这时你就需要将人物模型导入其他3d软件进行加工,例如zbrush等。
daz作为vam的母体环境,是vam人物、服装制作的核心工作节点,同时在daz中调整细节,比在vam中调节要方便一些,因为性能较为优化,不渲染时不吃你的显卡。
涉及daz的操作本身也是非常复杂的,有很多坑等着你去踩,但是daz的操作技能是作为一种相对“有用”的技能值得你花费一些时间。如果你爱捏人,这可能就是世界上参数化捏人最强的工具了。
涉及zbrush,那则是另外一个层面的讨论,在ZB里限制最终效果的只有你自己的能力。
第四步 完善贴图,导入Vam用substance painter、photoshop等工具,将facegen生成的贴图、zbrush烘焙的法线贴图和你曾经下载过的材质进行混合和部分重绘当然你也可以使用SP完全重绘人物贴图,这个流程只要做过一次,以后就是调参出新皮的过程。
在SP中调整整体肤色,并处理贴图边缘接缝过渡(算是minibaby的皮肤,但是我用的是之前萝莉的模型做底子)
SP的好处在于直观,可以直接在表面绘制,但是也有诸多问题,爱崩溃退出就是其中之一。在不同图层颜色混合的时候,有些重要的混合逻辑似乎也和PS和它自己文档声称的不同。
不过新消息是2020年的新版本可以跨udim直接绘制材质,就这一个功能就值得我们继续使用了。
总的来说用惯PS的人会觉得很难受,很多理所当然的功能你会发现没有。但是用惯其他3d建模软件的人会觉得很方便,毕竟比zbrush的polypaint强多了。
在将人物弄到SP中绘制本身就是一个很多坑的过程,等有人涉及到的时候我们可以单开帖子谈这个问题。
当然理论上ps也可以做3dpaint,但是我测试觉得非常卡顿。
最后完成一个真实向的人物重建工作
页:
[1]