Skip to main content
 首页 » AR游戏

2019年展望 VRMMO多人在线游戏多久能实现?

2018年12月19日 21:16:16277880网络

0VRMMO,是Virtual Reality Massively Multiplayer Online的缩写,意思是虚拟现实大型多人在线,详细的说,就是一种通过一些高科技装备控制人类的感觉神经或是通过影响感官器官,将游戏完全视觉化触觉化,即游戏时可以产生真实感。对于现在的VR技术来说已经可以达到通过设备影响人们的视觉和听觉,然而触觉、嗅觉、味觉这些更复杂的过程,有待科学家去探究,然而对于VRMMO来说,最重要的就是大型、多人、在线。

那么那样的世界到底离我们有多么的遥远呢?

      首先,既然是VRMMO,那么和一般的网络游戏一样,是需要和网络游戏服务器进行沟通交流的。那么需要考虑的东西就是:游戏的内容信息。但 VRMMO的信息容其实并不多的,和普通的网络游戏的传输信息大致差不多。现代的大型游戏已经解决了大量玩家同时在线的问题。所以VRMMO满足一万人同时在线游戏已经不是一个问题。

      其次,VRMMO的世界必须是绝对现实的,必须画面接近,它不但要营造人类的视觉、听觉、嗅觉、味觉、触觉这些平时看来的人类经常使用的五大项,还需要完成压力感的模拟,让有一种游戏世界是真实的世界的感觉。那么对于游戏的服务器来说,相比压力是很大的吧。

       那么作为VRMMO的服务器,应该是什么样子的呢?截止到2015年,国防科大研制的超级计算机系统天河二号以峰值计算速度每秒5.49亿亿次、持续计算速度每秒3.39亿亿次双精度浮点运算的优异性能位居榜首,成为全球最快超级计算机。现居世界第一的“天河二号”,比“地球模拟器”性能高了不知多少倍,所以以现在的技术开发一个供玩家畅游的世界并非不可能的事。

2019年展望 VRMMO多人在线游戏多久能实现? AR游戏 第1张

编辑


      下面就是最难的部分了:终端将信息传送到大脑。以色列魏茨曼研究院的两名教授早就研究出了这么样传输味觉的数学公式了。虽然只是小小的一步,然而对于整个VRMMO的进程来说这确实是巨大的一步进步。

那么,理论上来说,大体除了向大脑传送信息以外,基本上都可以搞定。VRMMO其实距离我们还算是比较近的。

又是新的一年, 2016总体不错, 前两年的坚持和积累开始产生效果, 2017不忘初心, 继续前行. 从做PC网游开始, 到2014年做主机游戏, 2015年做单机VR游戏, 2016年做多人VR游戏, 我们一直在走一条非主流的路. 不过现在回头看看, 冒似绕了一条路走在了前面, 做为一名技术人员来说, 还是挺有成就感的.   看看目前绝大数的VR游戏, 其实就是美术做个场景, 程序实现一下交互, 然后就可以拿去上线了, 难怪2016下半年VR热度开始冷却, 因为忽悠太多了.   我们也是从一开始做VR, 觉得这东西很好玩, 到之后开始觉得VR游戏好像没有什么技术含量, 再到做多人VR遇到的各种坑, 才知道, 单人和多人VR游戏的技术含量, 完全不是一个量级的. 只有耐心把地基打好, 才能建造一座高楼. 下面也是随便说说我们遇到的问题和挑战, 不对解决方案和实现做详细说明.

做为一个多人游戏, Avatar是必须的. 而很多单机的VR游戏只有两只手. 有些多人VR游戏就是只做了一个头加两只手的形象, 说是”可信度”>”真实度”. 虽然这个思想是没错, 但只有头跟手在表现力上也太搓了点. 这么做的原因是VR设备只提供了头显和两只控制器的Transform, 所以没办法完美地模拟出身体其它骨骼的运动. 或许有人说可以像其它网游那样使用美术制作的动画, 但是那样的话, 就失去了”可信度”, 毕竟面对面交流的感觉, 是需要身体语言的, 而VR设备三个骨骼的Transform就可以表达出很多信息了. 所以, 要想让玩家的Avatar生动起来, 必须把他身体的动作同步到Avatar上面. 但是, 由于没有身体的其它骨骼关节的信息, 只能依靠FullbodyIK的技术进行模拟. 目前看来, 做得比较好的中间件有FinalIK和IKinema. 头部的转动IK是最容易实现的, 类似传统游戏中的AimIK/LookAt等; 胳膊的IK稍困难, 需要避免与身体的穿插, 还要保证肘部关节和肩部关节的角度不会超出约束范围, 不然会看着像骨折了; 下半身的IK是最难的, 因为双腿需要跟着上半身做弯曲/下蹲/转身/迈步等, 跳跃和弯腰更是目前无法完美模拟的.

说到VR游戏中的移动, 很多人已经有个共识就是会晕. 所以, 对于小范围的移动, 通常是使用RoomScale的空间走动; 对于大范围的, 目前通用方法是使用传送. 虽然也有驾驶类的, 但是与特定游戏玩法相关性比较大, 这里不做讨论. RoomScale的移动对于单人来说, 很好处理, 但是反应到其它玩家的Avatar上就是一个问题了. 因为在逻辑上, 他们的Transform并没有变化, 只是头跟手的Transform发生了变化. 如果Avatar的设计有腿的话, 就需要腿跟随头部移动和转向, 这样出来的效果十分诡异, 因为正常人是下半身带动上半身移动/转向的, 而VR里是头和手带动上半身, 上半身再带动下半身, 出现的动作就会不协调. 2017年应该会上市很多HomeScale的头显, 采用类似Hololens的SLAM定位技术, 这时候腿部表现就是不可避免的了.

除了肢体语言, 手势也是一种极富表现力的交流手段. OculusTouch的Touch特性用来模拟拇指/食指/中指的动作, 进行一下组合就能实现很多种常见的手势, 配合肢体语言, 可以极大地增强面对面交流时的真实感. 当然这个没什么技术含量, 会做动画状态机就能做, 难的是手拿物体的动作. 如果只有固定的几种东西, 那就可以针对每个物体做不同的手抓住的动画. 但是如果想用双只手交替拿物体的任意部位, 这种预置动画是满足不了需求的. VirtualGrasp就做了这样的技术, 可以让手指在不同物体的不同部位, 都能让手指贴到物体表面上, 做到了比较自然的抓握动作.

多人交流, 那沟通是少不了, 但是VR游戏没人会用键盘去玩的, 所以语音聊天成了多人VR游戏必须做的一个基础功能. 不过VR中的语音聊天不仅仅是像YY那样开个房间就好, 而是需要把声音空间化, 做成3D音效, 这样才像是从玩家Avatar的嘴里发出来的声音, 2D音效在VR里是相当违和的. 再进一步, 需要考虑声音的反射和遮挡, 这个目前还没有在实际产品中看到比较完美的技术方案, 大家最多只是做个混响效果. Oculus Audio SDK中有Sound Spatialization的技术, NVIDIA有VRWorks Audio, AMD也有TrueAudio, 因为大家都意识到, 在VR中, 声音的重要性, 不亚于画面.

好了, 说话时有了声音, 那Avatar的嘴要动吧? 这就是涉及到LipSync的技术了. LipSync不是什么新技术了, 在AAA游戏中用得很多, 只不过大家用的都是离线生成的口型数据, 而VR语音聊天是需要实时生成的口型的. 如果只是单音节识别, 还算比较简单, Oculus的LipSync就是这样, 效果一般. 再进一步就是需要考虑前后声音的相关性, 做出口型的连续变化, 而不是简单的插值. 这方面目前看着效果比较好的是SpeechGraphics做的中间件. 最难的是情绪识别, 因为嘴能动了, 脸还是僵硬的, 看着也是很假. 另外, 语音识别什么的, 也是有可以用的时候, 毕竟在VR里做交互和做文字输入什么的, 没有直接说话来得轻松.

上面说到了脸部的表现, 最最基本的, 需要做个表情吧? 简单的卡通风格用贴图画就可以, 偏写实的风格就需要用绑定大量脸部骨骼或者导出MorphTarget去表现表情的变化. 一旦使用了基于Mesh的表情制作方案, 动画美术就疯了, 绑定一张脸的Rig就累个半死. 不知道DCC工具中有没有比较快速绑定脸部骨骼或者生成MorphTarget的技术, 不然制作成本是个问题. 好了, 等美术做好了几个表情动画, 问题来了, 我怎么触发呢? 体感控制器上就那么几个按钮, 总不能都用来触发表情吧? 那就做个UI? 等你选完早就不笑了. 用身体动作触发? 老是会误触发, 一会儿哭一会儿笑的, 跟精神病一样.

有了口型变化, 有了表情变化, 为什么还有两只死鱼眼呢? 这时候又需要做眼神的控制了. 随机眨眼是比较简单的, 难的是视线方向的控制. 因为目前的量产头显都不带眼动追踪的功能(只听说FOVE有), 所以你没法知道对面玩家的眼睛到底在看哪里. 那只能做个策略来进行模拟, 比如根据声音, 根据运动物体的位置, 根据头部朝向的目标等, 怎么调出来让人觉得自然也是需要很多精力和时间反复调整的.

嗯, 脸部表现丰富了, 肢体动作也有了, 其它方面也要跟上吧? 头转了, 头发是不是也要甩一甩? 身体动了, 衣服是不是也要飘一飘? 这又掉进物理模拟的坑里了, 大量AAA级游戏都有比较成熟的方案, 不再多说.

物理最麻烦的不是模拟, 而网络同步. 在任何一个使用双持体感控制器的VR游戏中, 都少不了各种带物理模拟属性的物件, 可以拿起来扔之类. 而到了多人VR游戏中, 这些物件的运动一样需要同步到其它客户端. 可能这一秒还在你手上, 下一秒就被其它人拿去了. 另外, VR游戏中现在大多是90FPS, 手上拿的东西如果模拟稍微有点延迟立即就能察觉, 影响所谓的”手感”. 在场景多的物理对象很多的时候, 你用帧同步吧, 延迟太大; 你用状态同步吧, 服务器跑个物理引擎又比较吃力, 下发的数据量也很大, 不知道玩家带宽能撑住不. 再说了, 之前同步头和手外加语音聊天已经占用掉很大一部带宽了, 留给物理对象的已经不多了…

2019年展望 VRMMO多人在线游戏多久能实现? AR游戏 第2张

 那么,理论上来说,大体除了向大脑传送信息以外,基本上都可以搞定。VRMMO其实距离我们还算是比较近的。日本IBM日前公布了由人气ACG作品《刀剑神域》改编而来的VRMMO作品《刀剑神域:The Beginning》。2月22日,日本IBM在其推特账户上发布“这个VRMMO,由IBM的技术来变成现实”,并贴上了一张《刀剑神域》的图,还在加上了“#SAO”的标签(SAO是“刀剑神域”的缩写)。随后,本项目的官方网站也随之开放,游戏名《刀剑神域:The Beginning》得到公开。本作是采用VR设备的大型多人在线游戏,原作作者川原砾负责剧本,以IBM旗下的云服务主机“SoftLayer”的数据中心为系统基础、通过高速处理海量数据来实现虚拟世界的临场感。并且,IBM旗下世界顶尖的认知计算系统(Cognitive Computing System)“IBM Watson”也会运用到游戏中,玩家被3D扫描后,可以以本身的样子出现在游戏中。

日本IBM已经为我们开了一个好头。相信不用到动漫中虚拟的2025年,我们就能看到真正的,更加完善的VRMMO出现在中国市场,带领中国VR走向进一步的创新。

评论列表暂无评论
发表评论