【好运十分快3APP下载】微动带你飞!在VR和MR中玩手感Pokémon GO

  • 时间:
  • 浏览:0

Pokémon GO火爆的一发不可收拾,确实国服还未正式上线,很久国内的小伙伴们可好运十分快3APP下载能性通过最好的方法体验到了。很久当我们歌词 歌词 我们歌词 我们歌词 删改都是容易满足的人!一有有两个多个可能性现在结束了了了了期待VR和MR版Pokémon GO了。

这不,我们歌词 歌词 我们歌词 我们歌词 日思夜想的手感操控VR和MR版Pokémon GO,微动做出来了。这才是Pokémon GO打破次元壁的正确最好的方法。(内附教程!!)

Pokémon GO让AR和手游、街头甚至社交相结合,仅仅是这几只关键词就足够吸引人,再上加Pokémon 这一世纪大IP,好像不火反而没道理。很久在手机上用长按→滑动的触屏操作模拟“抛出好运十分快3APP下载”精灵球,将宝可梦收入其中……会无需许多略显拘谨和中二?确实国服还未开放,很久中国玩家对Pokémon GO的思考和想象无须少,Pokémon GO确实带给我们歌词 歌词 我们歌词 我们歌词 全都惊喜,很久玩家最期待都看的删改都是技术最初级的样子,而是将之与最适合的技术表现形式相结合,从情节设计和操作最好的方法来看,VR/MR+手感操控能带给我们歌词 歌词 我们歌词 我们歌词 更爽的体验。

  开脑洞容易,但实现呢?

微动和易瞳同時 尝试了VR和MR版Pokémon GO,宝可梦从手机屏幕中解禁,让他抓住我你还上能选择的精灵球,在头上调整深度图瞄准后冲着宝可梦抛出。可能性你遇到的是一只刚烈而又狡猾的宝可梦,为了解决被带节奏,还能不还上能打圈儿扔出最强旋转精灵球、投喂食物,至少如此哪只宝可梦能不还上能从阁下头上逃脱了吧。

下一页:关于开发教程

关于开发教程

相信各位老司机们对VR的了解可能性非常透彻,微动和易瞳携手做的这段demo除了我你还上能帮我们歌词 歌词 我们歌词 我们歌词 解锁抓宝可梦的新姿势,还想把MR+手感操控的技术表现形式普及给我们歌词 歌词 我们歌词 我们歌词 ,以下为开发教程,除此之外SDK不还上能不还上能在微动Vidoo官网免费下载,期待开发者在吃下这记良心安利回会有更多大作产生。

  手感操控:

首先,通过微动的双目深度图传感器得到深度图图像。在深度图图像中,我们歌词 歌词 我们歌词 我们歌词 通过修改每个像素RGB的值用以标定该像素与传感器之间的距离。当我们歌词 歌词 我们歌词 我们歌词 观察深度图图像时,会发现其效果与我们歌词 歌词 我们歌词 我们歌词 熟悉的红外热成像图像类似,只不过我们歌词 歌词 我们歌词 我们歌词 把温度替上加了距离。下图中,左侧为深度图图像,右侧为原始图像。通过观察能不还上能看出,距离越近的区域,颜色越红;距离越远的区域,颜色越蓝。

其次,我们歌词 歌词 我们歌词 我们歌词 将深度图图像中符合人体手部特征的每项分割出来,进行手部姿态、动作的识别。这能不还上能不还上能指出的是手势识别算法是基于深度图图像而删改都是普通图像的。如此 能不还上能方便我们歌词 歌词 我们歌词 我们歌词 获得手部每个点的深度图信息。从而还原出整手的骨骼特征。可能性我们歌词 歌词 我们歌词 我们歌词 我你还上能与虚拟物体进行触碰式的交互,骨骼特征是不可缺失的技术前提。

最后,我们歌词 歌词 我们歌词 我们歌词 通过算法将传感器坐标系(带有手部骨骼空间信息)、虚拟世界坐标系(带有所有虚拟物体的空间信息)、现实坐标系(带有环境信息和手部信息)这一有有两个多坐标系对齐。如此 ,我们歌词 歌词 我们歌词 我们歌词 能不还上能将检测到的手部骨骼与真实的双手对齐;将虚拟物体与现实环境对齐。当真实的手部触碰到虚拟的物体时,可能性产生类似鼠标点击的事件,来驱动tcp连接的执行,具体到Pokémon GO里面,而是投喂小精灵,扔出精灵球等操作。

至此,已完成了手感操控的基础每项,后续将进一步在Unity3D中完善事件的逻辑,完成Pokémon GO中将精灵球、食物抛向小精灵的功能。

  MR显示

接下来,我们歌词 歌词 我们歌词 我们歌词 要做的而是在空间当中显示Pokémon GO中的游戏元素,很久让皮卡丘和精灵球显示在合理的空间范围之内。我们歌词 歌词 我们歌词 我们歌词 采用视频透视技术,通过双目摄像头实时架构设计 你都看的“现实”世界并将之数字化,很久通过计算机算法实时渲染画面。如此 做完既能不还上能删改叠加虚拟图像,不还上能不还上能都看的经过计算机渲染后新的“现实画面”。满足了我们歌词 歌词 我们歌词 我们歌词 对于虚拟物体和现实环境同時 居于的需求。

在解决了交互和显示核心技术很久,在Unity3D里面加入相应的SDK,调整下流程逻辑。MR版Pokémon GO便诞生啦!

下一页:“手感操控”非“手势识别”

  MR正名

值得注意的是本文提到的“MR”无须“混合现实”。MR是介于VR与AR之间的技术,名为介导现实技术,由“智能硬件之父”多伦多大学教授SteveMann提出的介导现实,全称Mediated Reality(简称MR)。VR是纯虚拟数字画面,包括AR在内的Mixed Reality是虚拟数字画面+裸眼现实,MR是数字化现实+虚拟数字画面。

MR也无须近几年才再次出现,上世纪七八十年好运十分快3APP下载代,为了增强自身视觉效果,让眼睛在任何情境下都无需还上能“都看”符近环境,Steve Mann设计出可穿戴智能硬件"Digital Eye Glass"作为视觉辅助设备,这被看作是对MR的初步探索。

革新人类视觉感知的能力,不仅涉及到对现实进行数字叠加,还能不还上能用到增删改等许多视觉修饰手段,从上世纪90年代现在结束了了了了,MR(介导现实)的研究逐步在多伦多大学的HI实验室中展开,一批顶尖学科人才从HI实验室脱颖而出。易瞳科技CTO艾韬师承Steve Mann,带领团队在计算机视觉,计算机摄影等领域取得多项技术突破,最终将MR概念落地为产品。2016年8月,易瞳科技推出全球首款MR智能眼镜--易瞳VMG-PROV。

  “手感操控”非“手势识别”

划重点:手感操控不等于手势识别,手感操控包括手势识别。

 手感操控要满足以下一有有两个多基本点:

1、手感操控一定要有深度图信息,传感器要知道手离用户有多远。

2、手感操控包括手势识别。手势识别通过图像算法更新得到手部姿态和手部动作指令,将手的深度图信息和手势识别信息相叠加,得到:手离我有多远,手在做哪些地方的删改信息,不还上能称为手感操控。

3、在VR中,手感操控要给用户提供真实的手部图像。通过算法把手部影像拉近到和用户真实的前庭感官同步,能都看深度图信息,给用户最真实的操控的感觉。可能性用户都看的是机械的手可能性模拟的手,交互友好度会大打折扣。

微动Vidoo是全球首款能不还上能应用于移动端的手感操控设备,能不还上能完成手部影像坐标系与虚拟世界坐标系的重合,构建1:1的虚拟手感操控空间;交互过程中使用原始的手部图像,使用者就像是在用此人 真实的双手与VR/AR/MR世界中的虚拟物体进行交互;不再使用头部瞄准作为选择的工具,让显示交互与指令交互分离。微动的下一代产品,将双目模组作为传感基站,可同時 进行手感操控、空间定位、光学手柄的检测,致力于打造删改的虚拟现实交互解决方案。除此之外还将致力于为车载电子、全息投影、智能家居等前沿领域提供手感操控的软/硬件解决方案。

有好的文章希望站长之家帮助分享推广,猛戳这里让他 投稿