最近WebVR API 1.1已经发布,2.0草案也在拟定中,在我看来,WebVR走向大众浏览器是迟早的事情了,今天本人将对WebVR开发环境和开发流程进行深刻介绍。前端
首先,WebVR指的是使用浏览器体验VR的方式,现在已经成为了一种开放标准。
它提供了JavaScript API,使开发者能够获取vr设备的输入信息,来改变用户在虚拟空间里的位置、视觉、行为等。
如下是目前主流VR及浏览器对WebVR的支持状况。node
VR平台 | 浏览器支持 |
---|---|
Cardboard | chrome、百度VR浏览器 |
Daydream | chrome |
Gear VR | Oculus Carmel 或 Samsung Internet |
Oculus Rift | Firefox 或 Chromium experimental分支 |
HTC Vive | Firefox 或 Chromium experimental分支 或 Servo |
遗憾的是,WebVR的体验方式目前只能运行在Android和Windows系统上。不过这并不影响咱们在mac和linux上开发与调试。linux
因为WebVR App须要运行VR设备上,而目前购买一台VR设备的成本不低,因此这里我总结了一套开发环境下WebVR调试方案。
首先咱们须要给WebVR静态页面起一个web server,这里我安装 Web Server for Chrome,你也能够使用node或者上传至github托管。git
使用WebVR API Emulation扩展程序能够模拟VR设备用户的视角、位置等。github
适用于cardboard级别的WebVR App调试。web
目前须要webvr还属于早期实验阶段,须要下载chrome beta最新版,安装完须要手动开启webvr支持,在浏览器地址栏输入chrome://flags#enable-webvr
,点击启用并从新启动chrome。chrome
这是google给cardboard、daydream用户提供VR服务配置,能够提供VR模式窗口,以下图。
最后你能够在chrome上打开WebVR示例页面验证是否配置成功canvas
经过手机chrome访问咱们开发的WebVR页面,在PC端chrome输入chrome://inspector
进行调试,具体能够参考 远程调试 Android 设备使用入门。api
完成WebVR开发环境配置以后,咱们将正式进入WebVR开发之旅。promise
WebVR App实现依赖于WebGL技术开发,WebGL是在浏览器上建立和运行3D图像,它遵循OpenGL ES的规范,经过GLSL语言操做GPU进行顶点片元渲染。
在WebGL场景中,3d物体都是经过矩阵变换最终造成屏幕上的2d图像,[投影矩阵ProjectionMatrix
] × [视图矩阵ViewMatrix
] × [模型矩阵ModelMatrix
] × 顶点坐标,其中投影矩阵和视图矩阵能够抽象为3d场景中的相机属性。
模型矩阵 × 顶点坐标(相对模型) = 顶点世界坐标(绝对坐标)
视图矩阵 × 世界坐标 = 顶点相机坐标(以相机为坐标原点)
投影矩阵 × 顶点相机坐标 = 2d屏幕坐标
相比通常WebGL场景,WebVR App不一样之处在于:
根据以上不一样之处,我梳理了一个WebVR App的简单开发流程,以下图。
开发流程总结为: VR数据初始化 → WebGL初始化 → 动画渲染。
使用navigator.getVRDisplay()
方法获取VR实例,该方法返回值是一个promise实例,经过.then(function(displays){})
取得当前使用的VR实例列表。
let vrDisplay; navigator.getVRDisplays().then(displays => { if (displays.length > 0) { vrDisplay = displays[0]; console.log('Display found',vrDisplay); drawVRScene(); } else { console.log('Display not found'); // 非VR模式下渲染 // drawScene(); } });
WebGL程序初始化通常分为这几个步骤:编译顶点、片元着色器程序→建立顶点、纹理缓冲区→ 设置画布被清空时颜色→启动深度测试
function drawVRScene() { const canvas = document.getElementById('glcanvas'); // 获取WebGL上下文 const gl = canvas.getContext('webgl'); // WebGL初始化 init(gl); // WebGL渲染 render(gl); } function init(gl) { // 预编译着色器程序 if (!initShaders(gl, VSHADER_SOURCE, FSHADER_SOURCE)) { console.log('Failed to intialize shaders.'); return; } // 建立顶点缓冲 initVertexBuffers(gl); // 建立纹理缓冲 initTextures(gl,'../assets/texture.jpg'); gl.clearColor(0.4, 0.4, 0.4, 1.0); // 启动深度测试 gl.enable(gl.DEPTH_TEST); gl.depthFunc(gl.LEQUAL); }
顶点着色器要作的工做是将Js输入的顶点坐标、模型-视图-投影矩阵进行逐顶点运算。
const VSHADER_SOURCE = ` attribute vec4 a_Position; uniform mat4 u_MvpMatrix; attribute vec2 a_TexCoord; varying highp vec2 v_TexCoord; void main() { gl_Position = u_MvpMatrix * a_Position; v_TexCoord = a_TexCoord; } `;
片元着色器主要处理片元颜色,在这里只是将纹理坐标和纹理对象传给片元着色器。
const FSHADER_SOURCE = ` uniform sampler2D u_Sampler; varying highp vec2 v_TexCoord; void main() { gl_FragColor = texture2D(u_Sampler,v_TexCoord); } `;
WebVR前期初始化以后,咱们须要建立动画来渲染VR场景。
经过使用vrDisplay实例的requestAnimationFrame(callback)
,递归执行callback函数。
该方法是window.requestAnimationFrame
的一个特殊实现,它会优先使用VR设备原生的刷新率而不是浏览器的刷新率,以达到合适的渲染帧频。
function render(gl,vrDisplay) { // 建立VR帧数据对象 const frameData = new VRFrameData(); const u_MvpMatrix = gl.getUniformLocation(gl.program, 'u_MvpMatrix'); function animate() { // TODO draw(frameData,u_MvpMatrix); // 经过递归的方式,执行绘图函数,产生动画 vrDisplay.requestAnimationFrame(animate); } animate(); }
咱们在启动动画递归以前使用new VRFrameData()
方法,VRFrameData
是WebVR提供的帧数据封装对象,是WebVR渲染的关键数据,下文将会介绍如何使用它。
WebGL上下文提供了viewport
函数,用来指定3d场景在canvas的绘制位置和尺寸。
默认的状况下,WebGL渲染视口为gl.viewport(0, 0, canvas.width, canvas.height)
。
其中前两个参数表明渲染的起点坐标,后两个参数表明渲染的尺寸,这里经过依次设置左右眼渲染视口,来达到分屏效果。
function draw(frameData,u_MvpMatrix) { gl.viewport(0, 0, canvas.width * 0.5, canvas.height); // 设置左侧视口 // TODO gl.viewport(canvas.width * 0.5, 0, canvas.width * 0.5, canvas.height); // 设置右侧视口 // TODO }
左、右侧视口的渲染宽度为canvas
宽度的1/2
,左视口起始点为(0,0)
,右视口的起始点坐标为(canvas.width * 0.5, 0)
。
前面介绍了WebVR渲染须要根据用户行为动态绘制每一帧场景,具体作法是:
1)经过WebVR API提供的VRFrameData
实例获取当前帧的视图矩阵和投影矩阵;
2)将视图-投影矩阵传入着色器进行绘制;
3)生成下一帧数据并提交给当前canvas;
4)进入下一帧回调。
具体代码以下
function draw(gl,frameData,u_MvpMatrix) { const { leftProjectionMatrix, leftViewMatrix, rightProjectionMatrix, rightViewMatrix } = frameData; // 初始化模型矩阵,模型-视图-投影矩阵 let modelMatrix = mat4.create(), vpMatrix = mat4.create(), mvpMatrix = mat4.create(); // 将左眼视图渲染到画布的左侧 gl.viewport(0, 0, canvas.width * 0.5, canvas.height); // mvpMatrix = ProjectionMatrix × ViewMatrix × modelMatrix // 这里使用gl-matrix.js的mat4对象对float32Array进行矩阵操做 mat4.multiply(vpMatrix,leftProjectionMatrix,leftViewMatrix); mat4.multiply(mvpMatrix,vpMatrix,modelMatrix); // 将模型-视图-投影矩阵mvpMatrix传入着色器 gl.uniformMatrix4fv(u_MvpMatrix, false, mvpMatrix); // 左侧绘图 gl.drawElements(gl.TRIANGLES, n, gl.UNSIGNED_SHORT, 0); // 将右眼视图渲染到画布的右侧 gl.viewport(canvas.width * 0.5, 0, canvas.width * 0.5, canvas.height); mat4.multiply(vpMatrix,rightProjectionMatrix,rightViewMatrix); mat4.multiply(mvpMatrix,vpMatrix,modelMatrix); gl.uniformMatrix4fv(u_MvpMatrix, false, mvpMatrix); gl.drawElements(gl.TRIANGLES, n, gl.UNSIGNED_SHORT, 0); // 生成下一帧数据并覆盖原来的frameData vrDisplay.getFrameData(frameData); vrDisplay.submitFrame(); }
首先,在动画渲染前经过new VRFrameData()
得到实例frameData
,并传入动画渲染函数;
接着,在动画函数里获取frameData的属性:
VRFrameData实例属性 | |
---|---|
leftProjectionMatrix | 左视口投影矩阵 |
leftViewMatrix | 左视口视图矩阵 |
rightProjectionMatrix | 右视口投影矩阵 |
rightViewMatrix | 右视口视图矩阵 |
固然VRFrameData
还包括pose
、orientation
等属性这里就不一一列举了。
根据公式分别计算出左右视口的模型-视图-投影矩阵,传给顶点着色器程序,与顶点缓冲区的顶点坐标相乘绘制出最终顶点。
MvpMatrix = ProjectionMatrix × ViewMatrix × modelMatrix
最后,在每一帧动画回调结束前,咱们调用vrDisplay.getFrameData(frameData)
来生成下一帧数据并覆盖frameData,并使用vrDisplay.submitFrame()
将当前帧提交给当前画布渲染。
至此,WebVR的开发流程已基本走完,具体代码能够参考下方demo
项目代码:https://github.com/YoneChen/webvr-demo
结语:使用原生WebGL开发WebVR应用相比three.js或者aframe代码要复杂不少,不过经过这种方式却能更深刻的了解WebVR的工做原理。
想了解three.js开发webvr,可参考《VR大潮来袭---前端开发能作些什么》
也欢迎各位关注个人专栏 WebVR技术庄园,不按期更新~
相关资料:
计算机图形知识:矩阵变换
WebGL快速入门:WebGL 技术储备指南
谷歌开发者 | WebVR:WebVR基本原理
MDN | WebVR API:使用WebVR API