現在做 Web 全景合適嗎?


Web 全景在以前帶寬有限的條件下常常用來作為街景和 360° 全景圖片的查看。它可以給用戶一種 self-immersive 的體驗,通過簡單的操作,自由的查看周圍的物體。隨著一些運營商推出大王卡等免流服務,以及 4G 環境的普及,大流量的應用也逐漸得到推廣。比如,我們是否可以將靜態低流量的全景圖片,變為動態直播的全景視頻呢?在一定網速帶寬下,是可以實現的。後面,我們來了解一下,如何在 Web 端實現全景視頻。先看一下實例 gif:

tl;dr;

  • 使用 three.js 實現全景技術
  • UV 映射原理簡介
  • 3D 坐標原理和移動控制
  • Web 陀螺儀簡介
  • iv-panorama 簡單庫介紹

基於 Three.js

全景視頻是基於 3D 空間,而在 Web 中,能夠非常方便觸摸到 3D 空間的技術,就是 WebGL。為了簡化,這裡就直接採用 Three.js 庫。具體的工作原理就是將正在播放的 video 元素,映射到紋理(texture) 空間中,通過 UV 映射,直接貼到一個球面上。精簡代碼為:

  1. let camera = new THREE.PerspectiveCamera(75, window.innerWidth / window.innerHeight, 1, 1100);
  2. // 添加相機
  3. camera.target = new THREE.Vector3(0, 0, 0);
  4. // 設置相機的觀察位置,通常在球心
  5. scene = new THREE.Scene();
  6. let geometry = new THREE.SphereBufferGeometry(400, 60, 60);
  7. // 在貼圖的時候,讓像素點朝內(非常重要)
  8. geometry.scale(-1, 1, 1);
  9. // 傳入視頻 VideoEle 進行繪製
  10. var texture = new THREE.VideoTexture(videoElement);
  11. var material = new THREE.MeshBasicMaterial({ map: texture });
  12. mesh = new THREE.Mesh(geometry, material);
  13. scene.add(mesh);
  14. renderer = new THREE.WebGLRenderer();
  15. renderer.setPixelRatio(window.devicePixelRatio); // canvas 的比例
  16. renderer.setSize(window.innerWidth, window.innerHeight);
  17. container.appendChild(renderer.domElement);

具體的過程差不多就是上面的代碼。上面代碼中有兩塊需要注意一下,一個是 相機的視野範圍值,一個是幾何球體的相關參數設置。

相機視野範圍

具體代碼為:

  1. let camera = new THREE.PerspectiveCamera(75, window.innerWidth / window.innerHeight, 1, 1100);

這裡主要利用透視類型的相機,模擬人眼的效果。設置合適的視野效果,這裡的範圍還需要根據球體的直徑來決定,通常為 2*radius + 100,反正只要比球體直徑大就行。

幾何球體的參數設置

  1. let geometry = new THREE.SphereBufferGeometry(400, 60, 60);
  2. // 在貼圖的時候,讓像素點朝內(非常重要)
  3. geometry.scale(-1, 1, 1);

上面其實有兩個部分需要講解一下

  • 球體參數設置裡面有三個屬性值比較重要,該 API 格式為: SphereBufferGeometry(radius,widthSegments,heightSegments,...)
  • raidus: 設置球體的半徑,半徑越大,視頻在 canvas 上繪製的內容也會被放大,該設置值合適就行。
  • width/height Segments: 切片數,主要用來控制球體在寬高兩個維度上最多細分為多少個三角切片數量,越高紋理拼接的邊角越清晰。不過,並不是無限制高的,高的同時性能損耗也是有的。
  • 在幾何繪製時,通過坐標變換使 X 軸的像素點朝內,讓用戶看起來不會存在 凸出放大的效果。具體代碼為: geometry.scale(-1,1,1)

UV 映射

上面只是簡單介紹了一下代碼,如果僅僅只是為了應用,那麼這也就足夠了。但是,如果後面遇到優化的問題,不知道更底層的或者更細節內容的話,就感覺很尷尬。在全景視頻中,有兩個非常重要的點:

  • UV 映射
  • 3D 移動

這裡,我們主要探索一下 UV 映射的細節。UV 映射主要目的就是將 2D 圖片映射到三維物體上,最經典的解釋就是:

盒子是一個三維物體,正如同加到場景中的一個曲面網路("mesh")方塊.

如果沿著邊縫或摺痕剪開盒子,可以把盒子攤開在一個桌面上.當我們從上往下俯視桌子時,我們可以認為U是左右方向,V是上下方向.盒子上的圖片就在一個二維坐標中.我們使用U V代表"紋理坐標系"來代替通常在三維空間使用的 X Y.

在盒子重新被組裝時,紙板上的特定的UV坐標被對應到盒子的一個空間(X Y Z)位置.這就是將2D圖像包裹在3D物體上時計算機所做的.

from 浙江研報

這裡,我們通過代碼來細緻講解一下。我們需要完成一個貼圖,將如下的 sprite,貼到一個正方體上。

from iefreer

這裡,我們先將圖片載入到紋理空間:

  1. var material = new THREE.MeshPhongMaterial( { map: THREE.ImageUtils.loadTexture(images/texture-atlas.jpg) } );

那麼,現在我們有一個如下的紋理空間區域:

這塊內容,就實際涉及到 WebGL 的知識,紋理空間和物理空間並不是在一塊,WebGL 中的 GLSL 語法,就是將紋理內容通過相關規則,映射到指定的三角形區域的表面。

這裡需要注意的是,紋理空間並不存在所謂的最小三角區域,這裡適應的只是在物理空間中劃分的三角區域。為了簡單起見,我們設置的 boxGeometry 只使用單位為 1 的 Segments,減少需要劃分的三角形數量。

這樣,就存在 12 塊需要貼的三角區域。這裡,我們就需要利用 Vector2 來手動劃分一下紋理空間的區域,實際在映射的時候,就是按順序,將物理空間的定點 和 紋理空間的定點一一映射,這樣就實現了將紋理和物理空間聯繫到一起的步驟。

因為,Three.js 中 geometry.faceVertexUvs 在劃分物理空間時,定義的面分解三角形的順序 是 根據逆時針方向,按序號劃分,如下圖所示:

根據上圖的定義,我們可以得到每個幾何物體的面映射到紋理空間的坐標值可以分為:

  1. left-bottom = [0,1,3]
  2. right-top = [1,2,3]

所以,我們需要定義一下紋理坐標值:

  1. face1_left = [new THREE.Vector2(0, 0),new THREE.Vector2(.5, 0),new THREE.Vector2(0, .333)]
  2. face1_right = [new THREE.Vector2(.5, 0),new THREE.Vector2(.5, .333),new THREE.Vector2(0, .333)]
  3. //... 剩下 10 個面

定點 UV 映射 API 具體格式為:

  1. geometry.faceVertexUvs[ 0 ][ faceIndex ][ vertexIndex ]

則定義具體面的映射為:

  1. geometry.faceVertexUvs[0][0] = face1_left;
  2. geometry.faceVertexUvs[0][0] = face1_right;
  3. //...剩下 10 個面

如果,你寫過原生的 WebGL 代碼,對於理解 UV 映射原理應該很容易了。

3D 移動原理

這裡需要注意的是 Web 全景不是 WebVR。全景沒有 VR 那種沉浸式體驗,單單只涉及三個維度上的旋轉而沒有移動距離這個說法。

上面的描述中,提到了三維,旋轉角度 這兩個概念,很容易讓我們想到《高中數學》學到的一個坐標系--球坐標系(這裡默認都是右手坐標系)。

  • φ 是和 z 軸正方向 <=180°的夾角
  • ? 是和 x 軸正方向 <=180°的夾角
  • p 是空間點距離原點的直線距離

計算公式為:

現在,如果應用到 Web 全景,我們可以知道幾個已知條件:

  • p:定義的球體(SphereBufferGeometry)的半徑大小
  • ?φ:用戶在 y 軸上移動的距離
  • ??:用戶在 x 軸上移動的距離

p 這個是不變的,而 ?φ 和 ?? 則是根據用戶輸入來決定的大小值。這裡,就需要一個演算法來統一協定。該演算法控制的主要內容就是:

用戶的手指在 x/y 平面軸上的 ?x/?y 通過一定的比例換算成為 ?φ/??

如果考慮到陀螺儀就是:

用戶的手指在 x/y 平面軸上的 ?x/?y 通過一定的比例換算成為 ?φ/??,用戶在 x/y 軸上旋轉的角度值 ?φ/??,分別和視角角度進行合併,算出結果。

為了更寬泛的兼容性,我們這裡根據第二種演算法的描述來進行講解。上面 ?φ/?? 的變動主要映射的是我們視野範圍的變化。

在 Threejs 中,就是用來控制相機的視野範圍。那我們如何在 ThreeJS 控制視野範圍呢?下面是最簡代碼:

  1. phi = THREE.Math.degToRad(90 - lat);
  2. theta = THREE.Math.degToRad(-lon);
  3. camera.position.x = distance * Math.sin(phi) * Math.cos(theta);
  4. camera.position.y = distance * Math.cos(phi);
  5. camera.position.z = distance * Math.sin(phi) * Math.sin(theta);

這裡主要模擬地球坐標:

  • lat 代表維度(latitude): 用戶上下滑動改變的值,或者手機上下旋轉
  • lon 代表經度(lontitude): 用戶左右滑動改變的值,或者手機左右旋轉

具體內容為:

在通常實踐當中,改變全景視角的維度有兩種,一種直接通過手滑,一種則根據陀螺儀旋轉。

簡單來說,就是監聽 touchorientation 事件,根據觸發信息來手動改變 lat/lon 的值。不過,這裡有一個注意事項:

latitude 方向上最多只能達到 (-90,90),否則會造成屏幕翻轉的效果,這種體驗非常不好。

我們分別通過代碼來實踐一下。

添加 touch 控制

Touch 相關的事件在 Web 中,其實可以講到你崩潰為止,比如,用戶用幾個手指觸摸屏幕?用戶具體在屏幕上的手勢是什麼( swipezoom)?

這裡,我們簡單起見,只針對一個手指滑動的距離來作為 相機 視角移動的數據。具體代碼為:

// 為了給自己博客拉量,完整版可以去我的博客查看:

villainhr.com

iv-panorama 簡介

iv-panorama 是 IVWEB 團隊,針對於全景直播這個熱點專門開發的一個播放器。現在 Web 對 VR 支持度也不是特別友好,但是,對於全景視頻來說,在機器換代更新的前提下,全景在性能方面的瓶頸慢慢消失了。其主要特性為:

  • 依賴於 Three.js,需要預先掛載到 window 對象上
  • 靈活配置,內置支持陀螺儀和 touch 控制。
  • 支持靈敏度參數的動態調整
  • 使用 ES6 語法
  • 兼容 React,jQuery(簡單湊數的)

項目地址為:iv-panorama。該項目使用非常簡單,有兩種全景模式,一個是 圖片,一個是視頻:

  1. import VRPlayer from iv-panorama;
  2. new VRPlayer({
  3. player: {
  4. url: /test/003.mp4
  5. },
  6. container:document.getElementById(container)
  7. });
  8. // image
  9. let panorama = new VRPlayer({
  10. image: {
  11. url: ./banner.png
  12. },
  13. container:document.getElementById(container)
  14. });

全景資源都已經放在 github 倉庫了,有興趣的可以實踐觀察一下。

更多內容,可以關注前端小吉米:


推薦閱讀:

掘金日報】第四期 使用Sublime?怎麼能不知道這些 Sublime 插件合集!
web前端如何才算入門?如何才算合格?如何才算大牛?
不可或缺的柯里化
我寫了本書《深入淺出React和Redux》

TAG:360度全景 | HTML5 | 前端开发 |