Threejs 开发3D地图实践总结

  前段时间连续上了一个月班,加班加点完成了一个3D攻坚项目。也算是由传统web转型到webgl图形学开发中,坑很多,作了一下总结分享。web

一、法向量问题算法

  法线是垂直于咱们想要照亮的物体表面的向量。法线表明表面的方向所以他们为光源和物体的交互建模中具备决定性做用。每个顶点都有一个关联的法向量。
  若是一个顶点被多个三角形共享,共享顶点的法向量等于共享顶点在不一样的三角形中的法向量的和。N=N1+N2;
  因此若是不作任何处理,直接将3维物体的点传递给BufferGeometry,那么因为法向量被合成,通过片元着色器插值后,就会获得这个黑不溜秋的效果
  
  个人处理方式使顶点的法向量保持惟一,那么就须要在共享顶点处,拷贝一份顶点,并从新计算索引,是的每一个被多个面共享的顶点都有多份,每一份有一个单独的法向量,这样就可使得每一个面都有一个相同的颜色
  
 
二、光源与面块颜色
  开发过程当中设计给了一套配色,然而一旦有光源,面块的最终颜色就会与光源混合,颜色天然与最终设计的颜色截然不同。下面是Lambert光照模型的混合算法。
  并且产品的要求是顶面保持设计的颜色,侧面须要加入光源变化效果,当对地图作操做时,侧面颜色须要根据视角发生变化。那么个人处理方式是将顶面与侧面分别绘制(建立两个Mesh),顶面使用MeshLambertMaterial的emssive属性设置自发光颜色与设计颜色保持一致,也就不会有光照效果,侧面综合使用Emssive与color来应用光源效果。
  
  
var material1 = new __WEBPACK_IMPORTED_MODULE_0_three__["MeshLambertMaterial"]({
            emissive: new __WEBPACK_IMPORTED_MODULE_0_three__["Color"](style.fillStyle[0], style.fillStyle[1], style.fillStyle[2]),
            side: __WEBPACK_IMPORTED_MODULE_0_three__["DoubleSide"],
            shading: __WEBPACK_IMPORTED_MODULE_0_three__["FlatShading"],
            vertexColors: __WEBPACK_IMPORTED_MODULE_0_three__["VertexColors"]
          });

          var material2 = new __WEBPACK_IMPORTED_MODULE_0_three__["MeshLambertMaterial"]({
            color: new __WEBPACK_IMPORTED_MODULE_0_three__["Color"](style.fillStyle[0] * 0.1, style.fillStyle[1] * 0.1, style.fillStyle[2] * 0.1),
            emissive: new __WEBPACK_IMPORTED_MODULE_0_three__["Color"](style.fillStyle[0] * 0.9, style.fillStyle[1] * 0.9, style.fillStyle[2] * 0.9),
            side: __WEBPACK_IMPORTED_MODULE_0_three__["DoubleSide"],
            shading: __WEBPACK_IMPORTED_MODULE_0_three__["FlatShading"],
            vertexColors: __WEBPACK_IMPORTED_MODULE_0_three__["VertexColors"]
          });
View Code

  

三、POI标注canvas

  Three中建立始终朝向相机的POI可使用Sprite类,同时能够将文字和图片绘制在canvas上,将canvas做为纹理贴图放到Sprite上。但这里的一个问题是canvas图像将会失真,缘由是没有合理的设置sprite的scale,致使图片被拉伸或缩放失真。api

  

  问题的解决思路是要保证在3d世界中的缩放尺寸,通过一系列变换投影到相机屏幕后仍然与canvas在屏幕上的大小保持一致。这须要咱们计算出屏幕像素与3d世界中的长度单位的比值,而后将sprite缩放到合适的3d长度。  性能优化

  

  
四、点击拾取问题
  webgl中3D物体绘制到屏幕将通过如下几个阶段
  
  因此要在3D应用作点击拾取,首先要将屏幕坐标系转化成ndc坐标系,这时候获得ndc的xy坐标,因为2d屏幕并无z值因此,屏幕点转化成3d坐标的z能够随意取值,通常取0.5(z在-1到1之间)。
function fromSreenToNdc(x, y, container) {
  return {
    x: x / container.offsetWidth * 2 - 1,
    y: -y / container.offsetHeight * 2 + 1,
    z: 1
  };
}
function fromNdcToScreen(x, y, container) {
  return {
    x: (x + 1) / 2 * container.offsetWidth,
    y: (1 - y) / 2 * container.offsetHeight
  };
}

 

  而后将ndc坐标转化成3D坐标:
  ndc = P * MV * Vec4
  Vec4 = MV-1 * P -1 * ndc
  这个过程在Three中的Vector3类中已经有实现:
    unproject: function () {

        var matrix = new Matrix4();

        return function unproject( camera ) {

            matrix.multiplyMatrices( camera.matrixWorld, matrix.getInverse( camera.projectionMatrix ) );
            return this.applyMatrix4( matrix );

        };

    }(),

  将获得的3d点与相机位置结合起来作一条射线,分别与场景中的物体进行碰撞检测。首先与物体的外包球进行相交性检测,与球不相交的排除,与球相交的保存进入下一步处理。将全部外包球与射线相交的物体按照距离相机远近进行排序,而后将射线与组成物体的三角形作相交性检测。求出相交物体。固然这个过程也由Three中的RayCaster作了封装,使用起来很简单:app

mouse.x = ndcPos.x;
      mouse.y = ndcPos.y;

      this.raycaster.setFromCamera(mouse, camera);

      var intersects = this.raycaster.intersectObjects(this._getIntersectMeshes(floor, zoom), true);

 

五、性能优化dom

  随着场景中的物体愈来愈多,绘制过程愈来愈耗时,致使手机端几乎没法使用。ide

  在图形学里面有个很重要的概念叫“one draw all”一次绘制,也就是说调用绘图api的次数越少,性能越高。好比canvas中的fillRect、fillText等,webgl中的drawElements、drawArrays;因此这里的解决方案是对相一样式的物体,把它们的侧面和顶面统一放到一个BufferGeometry中。这样能够大大下降绘图api的调用次数,极大的提高渲染性能。性能

  

  这样解决了渲染性能问题,然而带来了另外一个问题,如今是吧全部样式相同的面放在一个BufferGeometry中(咱们称为样式图形),那么在面点击时候就没法单独判断出究竟是哪一个物体(咱们称为物体图形)被选中,也就没法对这个物体进行高亮缩放处理。个人处理方式是,把全部的物体单独生成物体图形保存在内存中,作面点击的时候用这部分数据来作相交性检测。对于选中物体后的高亮缩放处理,首先把样式面中相应部分裁减掉,而后把选中的物体图形加入到场景中,对它进行缩放高亮处理。裁剪方法是,记录每一个物体在样式图形中的其实索引位置,在须要裁切时候将这部分索引制零。在须要恢复的地方在把这部分索引恢复成原状。测试

 

六、面点击移动到屏幕中央

  这部分也是遇到了很多坑,首先的想法是:

  面中心点目前是在世界坐标系内的坐标,先用center.project(camera)获得归一化设备坐标,在根据ndc获得屏幕坐标,然后根据面中心点屏幕坐标与屏幕中心点坐标作插值,获得偏移量,在根据OribitControls中的pan方法来更新相机位置。这种方式最终以失败了结,由于相机可能作各类变换,因此屏幕坐标的偏移与3d世界坐标系中的位置关系并非线性对应的。
  最终的想法是:
  咱们如今想将点击面的中心点移到屏幕中心,屏幕中心的ndc坐标永远都是(0,0)咱们的观察视线与近景面的焦点的ndc坐标也是0,0;也就是说咱们要将面中心点做为咱们的观察点(屏幕的中心永远都是相机的观察视线),这里咱们能够直接将面中心所谓视线的观察点,利用lookAt方法求取相机矩阵,但若是这样简单处理后的效果就会给人感受相机的姿态变化了,也就是会感受并非平移过去的,因此咱们要作的是保持相机当前姿态将面中心做为相机观察点。
  回想平移时咱们将屏幕移动转化为相机变化的过程是知道屏幕偏移求target,这里咱们要作的就是知道target反推屏幕偏移的过程。首先根据当前target与面中心求出相机的偏移向量,根据相机偏移向量求出在相机x轴和up轴的投影长度,根据投影长度就能返推出应该在屏幕上的平移量。
  
  this.unprojectPan = function(deltaVector, moveDown) {
    // var getProjectLength()
    var element = scope.domElement === document ? scope.domElement.body : scope.domElement;

    var cxv = new Vector3(0, 0, 0).setFromMatrixColumn(scope.object.matrix, 0);// 相机x轴
    var cyv = new Vector3(0, 0, 0).setFromMatrixColumn(scope.object.matrix, 1);// 相机y轴
    // 相机轴都是单位向量
    var pxl = deltaVector.dot(cxv)/* / cxv.length()*/; // 向量在相机x轴的投影
    var pyl = deltaVector.dot(cyv)/* / cyv.length()*/; // 向量在相机y轴的投影

    // offset=dx * vector(cx) + dy * vector(cy.project(xoz).normalize)
    // offset由相机x轴方向向量+相机y轴向量在xoz平面的投影组成
    var dv = deltaVector.clone();
    dv.sub(cxv.multiplyScalar(pxl));
    pyl = dv.length();

    if ( scope.object instanceof PerspectiveCamera ) {
      // perspective

      var position = scope.object.position;
      var offset = new Vector3(0, 0, 0);
      offset.copy(position).sub(scope.target);
      var distance = offset.length();
      distance *= Math.tan(scope.object.fov / 2 * Math.PI / 180);

      // var xd = 2 * distance * deltaX / element.clientHeight;
      // var yd = 2 * distance * deltaY / element.clientHeight;
      // panLeft( xd, scope.object.matrix );
      // panUp( yd, scope.object.matrix );

      var deltaX = pxl * element.clientHeight / (2 * distance);
      var deltaY = pyl * element.clientHeight / (2 * distance) * (moveDown ? -1 : 1);

      return [deltaX, deltaY];
    } else if ( scope.object instanceof OrthographicCamera ) {

      // orthographic
      // panLeft( deltaX * ( scope.object.right - scope.object.left ) / scope.object.zoom / element.clientWidth, scope.object.matrix );
      // panUp( deltaY * ( scope.object.top - scope.object.bottom ) / scope.object.zoom / element.clientHeight, scope.object.matrix );
      var deltaX = pxl * element.clientWidth * scope.object.zoom / (scope.object.right - scope.object.left);
      var deltaY = pyl * element.clientHeight * scope.object.zoom / (scope.object.top - scope.object.bottom);

      return [deltaX, deltaY];
    } else {

      // camera neither orthographic nor perspective
      console.warn( 'WARNING: OrbitControls.js encountered an unknown camera type - pan disabled.' );

    }
  }
View Code

 

七、2/3D切换

  23D切换的主要内容就是当相机的视线轴与场景的平面垂直时,使用平行投影,这样用户只能看到顶面给人的感受就是2D视图。因此要根据透视的视锥体计算出平行投影的世景体。

  由于用户会在2D、3D场景下作不少操做,好比平移、缩放、旋转,要想无缝切换,这个关键在于将平行投影与视锥体相机的位置、lookAt方式保持一致;以及将他们放大缩小的关键点:distance的比例与zoom来保持一致。

  平行投影中,zoom越大表明六面体的首尾两个面面积越小,放大越大。
 
 
八、3D中地理级别
  地理级别实际是像素跟墨卡托坐标系下米的对应关系,这个有通用的标准以及计算公式:
r=6378137
resolution=2*PI*r/(2^zoom*256)

  各个级别中像素与米的对应关系以下:

resolution    zoom    2048 blocksize    256 blocksize    scale(dpi=160)
156543.0339    0    320600133.5    40075016.69    986097851.5
78271.51696    1    160300066.7    20037508.34    493048925.8
39135.75848    2    80150033.37    10018754.17    246524462.9
19567.87924    3    40075016.69    5009377.086    123262231.4
9783.939621    4    20037508.34    2504688.543    61631115.72
4891.96981    5    10018754.17    1252344.271    30815557.86
2445.984905    6    5009377.086    626172.1357    15407778.93
1222.992453    7    2504688.543    313086.0679    7703889.465
611.4962263    8    1252344.271    156543.0339    3851944.732
305.7481131    9    626172.1357    78271.51696    1925972.366
152.8740566    10    313086.0679    39135.75848    962986.1831
76.4370283    11    156543.0339    19567.87924    481493.0916
38.2185141    12    78271.51696    9783.939621    240746.5458
19.1092571    13    39135.75848    4891.96981    120373.2729
9.5546285    14    19567.87924    2445.984905    60186.63645
4.7773143    15    9783.939621    1222.992453    30093.31822
2.3886571    16    4891.96981    611.4962263    15046.65911
1.1943286    17    2445.984905    305.7481131    7523.329556
0.5971643    18    1222.992453    152.8740566    3761.664778
0.2985821    19    611.4962263    76.43702829    1880.832389
0.1492911    20    305.7481131    38.21851414    940.4161945
0.0746455       21
0.0373227       22

  3D中的计算策略是,首先须要将3D世界中的坐标与墨卡托单位的对应关系搞清楚,若是已是以mi来作单位,那么就能够直接将相机的投影屏幕的高度与屏幕的像素数目作比值,得出的结果跟上面的ranking作比较,选择不用的级别数据以及比例尺。注意3D地图中的比例尺并非在全部屏幕上的全部位置与现实世界都知足这个比例尺,只能说是相机中心点在屏幕位置处的像素是知足这个关系的,由于平行投影有近大远小的效果。

 

九、poi碰撞

  因为标注是永远朝着相机的,因此标注的碰撞就是把标注点转换到屏幕坐标系用宽高来计算矩形相交问题。至于具体的碰撞算法,你们能够在网上找到,这里不展开。下面是计算poi矩形的代码

export function getPoiRect(poi, zoomLevel, wrapper) {
  let style = getStyle(poi.styleId, zoomLevel);
  if (!style) {
    console.warn("style is invalid!");
    return;
  }
  let labelStyle = getStyle(style.labelid, zoomLevel);
  if (!labelStyle) {
    console.warn("labelStyle is invalid!");
    return;
  }
  if (!poi.text) {
    return;
  }
  let charWidth = (TEXTPROP.charWidth || 11.2) * // 11.2是根据测试获得的估值
    (labelStyle.fontSize / (TEXTPROP.fontSize || 13)); // 13是获得11.2时的fontSize
  // 返回2d坐标
  let x = 0;//poi.points[0].x;
  let y = 0;//-poi.points[0].z;
  let path = [];
  let icon = iconSet[poi.styleId];
  let iconWidh = (icon && icon.width) || 32;
  let iconHeight = (icon && icon.height) || 32;
  let multi = /\//g;
  let firstLinePos = [];
  let textAlign = null;
  let baseLine  = null;
  let hOffset = (iconWidh / 2) * ICONSCALE;
  let vOffset = (iconHeight / 2) * ICONSCALE;
  switch(poi.direct) {
    case 2: { //
      firstLinePos.push(x - hOffset - 2);
      firstLinePos.push(y);
      textAlign = 'right';
      baseLine = 'middle';
      break;
    };
    case 3: { //
      firstLinePos.push(x);
      firstLinePos.push(y - vOffset - 2);
      textAlign = 'center';
      baseLine = 'top';
      break;
    };
    case 4: { //
      firstLinePos.push(x);
      firstLinePos.push(y + vOffset + 2);
      textAlign = 'center';
      baseLine = 'bottom';
      break;
    };
    case 1:{ //
      firstLinePos.push(x + hOffset + 2);
      firstLinePos.push(y);
      textAlign = 'left';
      baseLine = 'middle';
      break;
    };
    default: {
      firstLinePos.push(x);
      firstLinePos.push(y);
      textAlign = 'center';
      baseLine = 'middle';
    }
  }
  path = path.concat(firstLinePos);

  let minX = null, maxX = null;
  let minY = null, maxY = null;
  let parts = poi.text.split(multi);

  let textWidth = 0;
  if (wrapper) {
    // 汉字和数字的宽度是不一样的,因此必须使用measureText来精确测量
    let textWidth1 = wrapper.context.measureText(parts[0]).width;
    let textWidth2 = wrapper.context.measureText(parts[1] || '').width;
    textWidth = Math.max(textWidth1, textWidth2);
  } else {
    textWidth = Math.max(parts[0].length, parts[1] ? parts[1].length : 0) * charWidth;
  }

  if (textAlign === 'left') {
    minX = x - hOffset;
    maxX = path[0] + textWidth; // 只用第一行文本
  } else if (textAlign === 'right') {
    minX = path[0] - textWidth;
    maxX = x + hOffset;
  } else { // center
    minX = x - Math.max(textWidth / 2, hOffset);
    maxX = x + Math.max(textWidth / 2, hOffset);
  }
  if (baseLine === 'top') {
    maxY = y + vOffset;
    minY = y - vOffset - labelStyle.fontSize * parts.length;
  } else if (baseLine === 'bottom') {
    maxY = y + vOffset + labelStyle.fontSize * parts.length;
    minY = y - vOffset;
  } else { // middle
    minY = Math.min(y - vOffset, path[1] - labelStyle.fontSize / 2);
    maxY = Math.max(y + vOffset, path[1] + labelStyle.fontSize * (parts.length + 0.5 - 1));
  }

  return {
    min: {
      x: minX,
      y: minY
    },
    max: {
      x: maxX,
      y: maxY
    }
  };
}
View Code
相关文章
相关标签/搜索