接下来我们来了解一下GearVR开发包的底层代码,它底层的代码和之前在第三章中讲的桌面SDK代码非常类似,当然,也有许多不同的地方。
首先,我们看看如何构建Unity场景。在开发包中有一个具有camera Rig的预设体,这个预设体提供了Oculus的立体渲染技术和GearVR配套的头动追踪技术。
将Hierarchy中的OVRCameraRig物体展开,它下面包含有一个TrackingSpace的子物体,TrackingSpace下面包含四个子物体:LeftEyeAnchor、CenterEyeAnchor、RightEyeAnchor和TrackerAnchor。其中,左右眼的Anchor是关键,选中其中一个然后再Inspector面板中可以看到它包含一个相机组件,这个相机组件具有一些默认值,有些值会在脚本代码中更新,下面我们来看看这些更新的代码。
再次选中OVRCameraRig物体,然后再Inspector面板中双击打开OVR Camera Rig脚本。脚本打开以后找到Update这个函数,如下:
[C#] 纯文本查看 复制代码
#if private
#else private
#endif { EnsureGameObjectIntegrity(); if
return ; UpdateCameras(); UpdateAnchors(); } |
因为我们为安卓构建应用,所以#if语句判断为false,程序将采用Update函数,Unity在程序运行的每一帧都会调用这个函数。在我们的Update函数中首先调用EnsureGameObjectIntegrity函数以确保场景中包含所有必须的物体,如OVRCameraRig这个物体就是必须的。
确保程序正在运行之后,我们开始真正的更新操作。首先更新相机的参数,调用UpdateCameras函数用以更新两个眼睛的相机参数,代码如下:
[C#] 纯文本查看 复制代码
private
{ if
{ leftEyeCamera rightEyeCamera #if needsCameraConfigure false ; #endif } } |
下面的代码是获取每个眼睛的相机参数函数:
[C#] 纯文本查看 复制代码
private
{ Transform Camera OVRDisplay.EyeRenderDesc cam.fieldOfView cam.aspect cam.rect new
OVRManager.instance.virtualTextureScale); cam.targetTexture cam.hdr ... return
} |
函数中,根据传入的参数相应地获取左右眼睛的相机参数,其中,我们具体看看下面一行代码:
OVRManager.display.GetEyeRenderDesc(eye)
OVRManager这个类是Oculus Mobile SDK的主要接口类,它负责与安卓原生代码交互,如果你对它内部的实现非常感兴趣,你可以回到Unity的编辑器中选中OVRCameraRig,然后打开它的OVR Manager脚本进行研究。至此,我们利用SDK作为黑盒获取了左右眼睛相机的参数,包括:FOV、屏幕尺寸比、视口、渲染目标以及是否支持HDR。
我们相机的基本参数已经设置好了,但是它的坐标和朝向必须通过GearVR头显获取,在UpdateAnchors这个函数中实现这个:
[C#] 纯文本查看 复制代码
private
{ bool
OVRPose OVRPose OVRPose trackerAnchor.localRotation centerEyeAnchor.localRotation // leftEyeAnchor.localRotation : rightEyeAnchor.localRotation : trackerAnchor.localPosition centerEyeAnchor.localPosition leftEyeAnchor.localPosition : rightEyeAnchor.localPosition : if
null ) { UpdatedAnchors( this ); } } |