Live2D:一种革新了日本乃至全球2D游戏的游戏制作技术

相信游戏玩家们都玩过Galgame,这类游戏的画面主要由三样东西构成,UI(对话框、文字、各种按钮)、人物立绘、背景场景图。在这其中人物立绘通常都是定格的图片,通过在不同时候加载不同图片来表现人物的表情和动作,通常玩家都需要对游戏中的一些“看不见的动画效果”进行脑补,这样一来游戏的体验并不是很好。

Live2D:一种革新了日本乃至全球2D游戏的游戏制作技术

为了能让游戏中的场景更为生动、人物能动起来,有的厂商推出了3D立绘的Galgame,但是由于建模粗糙、人物的面部细节没有2D立绘好,导致采用了3D立绘的Galgame反而实际表现背道而驰,画面十分僵硬甚至辣眼睛。(毕竟不是所有厂商都有米哈游这种级别的美工水平)在这种环境下,一种全新的技术诞生了,这种技术叫“Live2D”,由日本Cybernoids公司开发。顾名思义,它是能让一个2D的人物立绘动起来先进技术,动画的流畅度甚至比采用了画超级多关键帧原画通过某些技术手段堆叠出来的2D人物立绘效果还要强,这项技术的诞生对于日本众多的2D游戏来说是革命性的。

人物动起来了

“Live2D”技术最大的亮点就是根本不需要对人物进行3D建模,这项技术采用纯2D的方式来对人物立绘进行动态的渲染,这意味着游戏厂商可以剩下一笔给人物进行建模的费用,同时可以保留2D人物立绘细腻、可人的特点。

这项技术的原理是对人物立绘原画的各个部分打散,类似于3D模型的贴图。这些打散的“原画零件”将输入到软件中进行重组,构成一个2D的人物立绘模型。在这个模型中每个部分的原画都具有大量的关键点,这些关键点彼此联结在一次构成一个网格。

对于画师来说,他们并不需要像绘制3D模型的贴图那样对角色的面部等进行绘制,而是只需要使用传统的立绘绘制方式并在这个基础上根据“Live2D”的要求对图片中的各个部件进行分层就行了。

Live2D:一种革新了日本乃至全球2D游戏的游戏制作技术

这些关键点就有些类似于3D模型中的顶点,当关键点移动时网格会发生变形,对应的原画组件也会发生变形。开发者可以利用网格的变形、移动、缩放来控制对应原画部件的运动,从而可以让2D人物做出一些歪头、摇头之类的动作。

由于原画的各个部分被打散,所以在人物模型中眼睛、鼻子、嘴巴、头发等部分都是独立的,每一个独立的部分都有自己的关键点与网格,都可以依赖于动画编辑来独立运动。例如“Live2D”可以通过眼皮部件的网格变形来生成眼睛的眨动动画,或者通过头发的网格运动来生成动态的、飘逸的头发。

Live2D:一种革新了日本乃至全球2D游戏的游戏制作技术

在这种动画控制系统的基础上,“Live2D”融合了目前在3D游戏中比较普遍的“口型同步”系统,通过一个特殊的算法让网格动画能匹配配音音频的波形,使得人物嘴唇的开合可以和音频同步。

Live2D:一种革新了日本乃至全球2D游戏的游戏制作技术

各种各样的动画效果综合在一起就形成了一个活灵活现的2D人物,重要的是这个2D人物的动画完全不依赖于传统的关键帧原画来生成,而是通过一套算法调用原画中的各个部件来进行实时渲染。这使得“Live2D”生成的2D人物立绘在动画流畅度上要远胜于传统的关键帧动画方法。在“Live2D”中开发者需要预先为模型的每一个动画设定好网格的变形,通过关键帧和“动画曲线”来调整动画的效果,最终由计算机进行补间操作。

Live2D:一种革新了日本乃至全球2D游戏的游戏制作技术

听上去感觉这种动画设计的方式和传统的关键帧动画没有什么特别大的差异,但是实际上二者在本质上就是不一样的。传统的关键帧动画所采用的补间是通过一些插值算法来对数量众多的关键帧原画进行插帧处理,最后像放幻灯片一样将其连贯起来。

而“Live2D”的关键帧更贴近于3D动画,它的关键帧指的是网格的状态,而计算机的补间计算的是网格上关键点的位移,位移的速度由开发者所设置的“动画曲线”决定。

Live2D:一种革新了日本乃至全球2D游戏的游戏制作技术

“Live2D”技术也与时俱进地融合了针对于2D游戏的“骨骼动画”系统,这使得通过“Live2D”技术生成的人物立绘可以做到传统游戏人物立绘根本做不到的摆手等动作,例如这样:

Live2D:一种革新了日本乃至全球2D游戏的游戏制作技术

由于“Live2D”的动画效果都是基于对2D原画部件进行各种处理的基础上生成的,所以人物的动作幅度有限,人物并不支持360度的展示,人物动作的幅度最大为40度左右。这是“Live2D”技术相较于完全3D化制作而言最大的弊病。

极强的兼容性

“Live2D”技术适用于各种各样的平台,包括PC、手机、主机、掌机等目前主流的几乎所有游戏平台,这种跨平台性和它能与目前最主流的跨平台游戏引擎Unity能紧密结合在一起是分不开的。除了Unity引擎,“Live2D”技术还支持开发者将其应用于一些专门用于制作Galgame的游戏引擎上,例如KIRIKIRI、CatSystem2等等。在PC平台上运用了“Live2D”技术的作品比较著名的有《Nekopara》、《超次元游戏:海王星》等等。在手机平台上运用了这一技术的作品就比较多了,国内外厂商都有,例如《梦间集》、《Bang Dream》、《碧蓝航线》等等,只不过很多厂商使用了这一技术但并没有在显眼位置标注。

极强的兼容性使得“Live2D”这一技术能够被各大游戏厂商广泛应用,目前很多很多基于2D人设的游戏通过这一技术得到了人物表现力方面突飞猛进地提升。“Live2D”技术可以说是这类游戏的一大福音。

Euclid

在上文中笔者有提到过“Live2D”技术最大的局限性在于由于其动画都是依赖于二维的一些图形图像技术生成的,这使得通过“Live2D”技术生成的人物模型可供展示的视角及其有限,这也限制了人物模型的一些动作,例如扭头、摇头、侧身等等。这个局限性也意味着“Live2D”技术将无缘VR游戏。为此“Live2D”的开发者们绞尽脑汁,推出了一款代号为“Euclid”的特殊的“Live2D”。

Live2D:一种革新了日本乃至全球2D游戏的游戏制作技术

在完全3D化制作中想要做好游戏人物的面部需要相当不俗的美工实力以及大量的资金投入,而Euclid则可以帮助开发者解决在3D化制作中人物面部不够精细的问题。

Euclid的工作方式是将“Live2D”技术和传统的3D化制作相结合,通过使用一系列的连续图像来自动地构建一个立体的头部模型,之后将这个头部模型与3D的身子拼接在一起。

Live2D:一种革新了日本乃至全球2D游戏的游戏制作技术

对于头部开发者仍然可以使用“Live2D”技术来设计人物面部的表情、头部的动作,开发过程相较于做一个纯2D的“Live2D”模型差异不大,但是对于画师来说,这意味着特别大的工作量。Euclid要求画师从不同角度对人物头部的各个部件进行绘制,从操作难度上来说这比绘制一张3D人物头部模型的贴图还要困难,因为对于画师来说他可能需要绘制成百上千个图形。

而且由于Euclid仅仅只能制作一个人物模型的头部,这意味着剩下的部分开发者仍然要采用传统的方式解决,走一整套建模、UV展开、绘制贴图、绑定骨骼、设计动画的流程。不过对于一个动漫风格的人物模型来说头部确确实实是最难搞定的部分,怎么做怎么违和,因而Euclid相较于传统的完全3D化制作来说又有存在的意义。不过目前Euclid还做得不是特别完善,例如生成的头部3D模型会和开发者自行建模的身体有着风格不搭的问题,看起来有一些违和,而且头部模型的精细程度实际上并不高。

Live2D:一种革新了日本乃至全球2D游戏的游戏制作技术

Euclid目前兼容Unity和Unreal Engine 4这两个业界最为主流的商业游戏引擎,这对于会采用Euclid这套系统开发游戏的厂商来说已经是足够的了。(具有雄厚的美工实力的厂商通常不会考虑使用Euclid这种方案,他们更多会选择老老实实采用纯3D化的制作来让模型达到更高的精细度,事实上一款采用3D化制作的游戏也是可以把人物模型做好的,例如《崩坏3》)。

笔者认为Euclid目前看来还是比较鸡肋的,因为使用这个技术制作一个三维的人物模型将意味着人物的头部将无法精细化处理,并且可能会在制作一些动画效果(特别是物理效果)的时候会出现一些问题。除此之外不论是对于美工还是对于程序员来说使用Euclid制作游戏的工作量是要比纯3D化制作大不少的。

要让一款3D的游戏保留住2D游戏中人物立绘的那种风味,Euclid还有很长的路要走。

在文章的最后,如果你对“Live2D”技术感兴趣的话可以前往Live2D的官网查看相关的开发文档,当然如果你有这方面的探索欲望你也可以下载一个免费版的开发程序包来自己亲手制作一个“Live2D”人物模型,你制作的人物模型虽然不一定能用于游戏中,但是作为一个动态壁纸来说还是特别不错的。

0

发表评论