無人駕駛和VR/AR技術將如何影響房價?
無人駕駛與VR/AR等技術是否會改變目前的商業社會運行模式,人與人的距離將不再成為商業實現的限制?這是否意味著當前人流物流集中在大城市中心城區的現象可以被逆轉,因為其存在的根本原因被取消了。這對城區房價會造成什麼影響?會影響多大?
不限於無人駕駛與VR/AR,歡迎討論其他新科技。
這是個好問題,我也思考了很久,以下是我總結的一點初步觀點。
AR/VR技術 + 完善的無人駕駛物流網,是可以對一線城市起到釜底抽薪的作用的。因為這些技術有可能摧毀城市存在的價值基礎。
設想以下的技術被運用起來:
1,AR+在線協作實現高效的在家辦公
自家的書房/卧室 or 任何空間中按照公司的要求安置深度攝像頭,這些攝像頭可以拍攝你的3D影像(通過演算法剔除你家中那雜亂無章的背景,剔除你穿的睡衣,並自動貼圖上工作裝)並上傳到公司託管在雲端的實時工作系統中。你的同事和上司可以通過AR眼鏡看到你在工作,你也可以通過你的AR眼鏡看到同事和上司,並選擇某個人(戳一戳)來交流,就像是你們在同一個房間那樣自然。你們在交談時可以隨時在AR環境中召喚一塊虛擬的黑板來寫字,也可以互相扔文件,並利用google docs這樣的模式同步在線編輯。你的上司可以隨時查看你在幹啥,當然,他只在工作時間裡擁有這種許可權,當你表明自己下班後就看不到你在自己的屋裡幹啥了(當然你也可以在工作時間關閉攝像頭分享許可權,如果你夠NB能無視領導的話)。雲端的安全性將保障工作信息的安全。2,VR購物體驗
通過VR在家裡就可以逼真地實現購物體驗,試穿,下單,隨後自動化的無人車/無人機物流將會將產品送到你家,電商通過VR將可以顯著超越實體店的體驗。當然,你在VR里可以和你住在幾千里以外的閨蜜一起逛街,想怎麼逛怎麼逛,不會出現找不到店的情況,還不累。再也不存在逛超市大採購這回事了,你的私人量化系統會學習你的生活歷史,並自動採購添置你需要的生活用品。實現模式參見剛才寫的在線工作的方法。3,AR實現逼真的社交
設想你的facebook被搬到了VR上,你可以痛快地和志同道合的朋友一起「面對面」地交流,無論身處何地,不受地區限制。實現模式參見剛才寫的在線工作的方法。4,在線教育
小孩可以利用和工作類似的模式實現遠程教學,他們將會受到全世界最好的教育(因為很多教育資源是隨手可及,你可以在線聽著全世界最好的老師的lecture,並通過AR和全世界各個地方的孩子交流和討論)。實現模式參見剛才寫的在線工作的方法。5,遠程醫療
未來的醫療,初診都會通過在線醫療的方式實現,AI系統知道你的全部生活和醫療歷史,還知道你昨天吃了啥東西,如果你腹痛就可以快速給出初診意見,醫生稍微問一下就可以確診,藥物通過電商的途徑發送過來。更大的手術等操作則需要用無人車把你運到治療中心。這些治療中心沒有任何必要建在大城市,而是貼近醫生們喜歡居住的郊區。6,靈活的性需求(陌陌)
如果你結婚了,你當然可以和老婆一起到處跑,反正她的工作如果也是白領工作,那在哪兒工作都是一樣的。如果你沒有結婚,那你就可以滿世界泡妹子了。因此AR/VR技術意味著:
1,我不需要住在大城市,天天通勤來辦公室上班,這浪費我的時間也浪費公司的錢(我的通勤費和損失的工作時間最後會體現在公司的cost里),而且我的生活成本也得以降低。2,我不需要住在大城市來享受便利的生活條件,因為在家用電商更方便,更靈活,更便宜,體驗還更棒。3,我不需要住在大城市以確保可以離我的朋友們近一點以方便出去玩,因為我可以在VR中和他們一起high,比如:一起在虛擬的太空中漂浮著打麻將。我不希望為了見朋友1個小時,在周末擠2小時地鐵。4,我不需要住在大城市來為我的小孩提供教育,我可以在家裡多和他玩而不是把時間浪費在通勤上,我工作的時候讓他去VR世界自己探索,去和小朋友們在VR的遊戲世界裡玩耍探索就好了。他的小朋友的構成將不會被地理距離限制,而是真正出自個人興趣和父母(也就是我)的社會經濟地位。我自然不願意他從小和窮人家的小孩一起玩。5,我不需要住在大城市來獲得良好的醫療資源6,我不需要住在大城市來滿足性需求那麼,我為啥要在大城市這種不適合人類居住的地方住並買一個房子?我可以在全世界任何地方居住,並通過雲端+快遞來工作和獲取生活用品和服務。那麼大城市存在的理由就被掏空了,「商街旺鋪」,「近地鐵半小時通勤圈」這種概念將會被掃入歷史的垃圾堆。人們可以住在自己喜歡的舒適的地方,沒有霧霾,景色宜人。
哦對了,你還要把共享經濟考慮進來,既然你不用在一個固定的地點買房子,那為啥不採用airbnb的模式來居住呢(還可以滿世界泡妹子)?你可以在airbnb上短租房子,夏天住在北海道的文藝小鎮,冬天住在巴厘島的沙灘上,反正每一個房子都有標準化安裝的深度攝像頭和高速網路(那個時候光纖就像是電線一樣,是剛需的基礎設施),只要在房屋的中控系統上登錄我的身份證並重置,這個屋子就會接上我在雲端的個人賬戶並按照我的生活歷史和工作需求進行優化,我就可以立刻開始生活和工作了。如果我很喜歡這個地方,我大可以把這個屋子從房東(房東此刻可能正在另一個人所持有的屋子裡生活和工作)那兒盤下來,自己想怎麼改裝怎麼改裝。厭倦了就可以再從airbnb租出去收租,要是碰到下一個買家還可賣出去收回錢還貸。如果我想要在現實中和我的朋友一起玩,我可以很方便地在他住的附近找一個airbnb搬過去住幾周,直到我們互相都滿意(或厭倦)了為止。這種頻繁的搬家並不意味著帶上很多箱子,因為大部分日常用品都是採用共享經濟獲得的(使用權),某些我珍愛的東西則可以通過極為廉價的物流運到新的地點供我重新裝置。
你對這種生活感到很嚮往嗎?反正我是非常嚮往的。
這個願景里涉及到的技術其實並沒有遙不可期,很希望可以從現在開始對這個產業鏈所涉及的基礎設施加以投資,那麼我預計在2050年我退休後,就可以舒適地用之前對這個願景的投資收益來養老了。想一想從1982年開始對電腦,軟體和互聯網標的進行持久和有計劃投資的人們,在2016年的當下該多麼財務自由。主要的基礎設施包括:1,高效物流所需要的自動化倉儲,低成本交通,無人駕駛汽車/飛機/貨輪2,VR/AR相關的技術標的3,VR電商標的,尤其是體驗優化模擬(個人感覺這塊需要藉助遊戲界的研發力量)4,共享經濟相關的類uber,airbnb商業模式標的5,高速互聯網的基礎設施建設和數據優化標的6,遠程協作工作的平台建設標的7,雲端商業數據安全的標的8,風景優美,基礎設施完善的地方有潛力改裝成airbnb SOHO的不動產資源(巴厘島的沿海地段會緊缺)
其他的再慢慢想中國的房價是無法用技術影響的,政策可以影響。
謝不邀!
從理論上,無人駕駛技術和VR/AR技術是可以影響房價的。無人駕駛,使得交通會越來越方便。所以很多人願意住在郊區,甚至更加偏遠的地方。VR和AR也是,當技術發展到一定程度,可以遠程協同辦公,不用來上班,就能有在一起上班和開會的感覺。
聽起來真的很美好。但對於房價這個話題,真不是這樣來推導的,至少跟這個關係是弱關係。因為當無人駕駛技術和VR技術都很好的時候,中國人可能不再有購房的心態了。因為一直以來,中國的房價都是虛高的,虛高的原因有很多,比如供需,比如社會心態,比如炒房,比如這一屆的守舊年輕人太多。
但我想說的是,現在開始中國已經進入老齡化的社會了。這意味著,年輕人可能越來越少,老人越來越多。老人大多數是有房子的,年輕人的房子也不用規模遞增,加上年輕人的消費觀念不再那樣了。所以放假自然會下降,或者不再上漲。
當然,影響房價上漲的原因太多了,這裡一時半會也說不清。但回到無人駕駛技術,理論上好像很有影響關係,但實際上估計是so what。
不過我倒認為,VR和AR,未來一定能幫忙降低建造和銷售房子的成本。
獨家!從微軟hololens解析VR、AR、無人駕駛、無人機的關鍵技術 |VR第一資訊 VR013
後天,也就是3月30日,微軟HoloLens開發者版將正式發貨,而且微軟似乎想要給大家一個驚喜,現在微軟表示第一批貨目前已經提前發出。在說HoloLens之前,我們先說下AR的鼻祖而且極具想像和神秘的公司Magic Leap,下面2段視頻是產品的效果視頻Youku Universal Player
http://player.youku.com/embed/XMTM2NjM0MjE1Ng== …很酷吧,我們再看看微軟hololens的效果視頻:http://player.video.qiyi.com/60c2920990da5622b34abb5abfc143e3/0/360/w_19rrq0ketx.swf-albumId=3988178809-tvId=3988178809-isPurchase=0-cnId=8 …下面是乾貨首先呢,科普一下 Magic Leap 和 Hololens 這類 AR 眼鏡設備,都是為了讓你看到現實中不存在的物體和現實世界融合在一起的圖像並與其交互。從技術上講,可以簡單的看成兩個部分:1. 對現實世界的感知(Perception) 2. 一個頭戴式顯示器以呈現虛擬的影像 (Display) 。我會分感知部分和顯示部分來分別闡釋 Magic Leap 的相關技術。先簡單回答這個問題:==== 顯示部分 =====Q1. Hololens 和 Magic Leap 有什麼區別?Magic Leap 的本質原理是什麼?感知部分其實 Hololens 和 Magic Leap 從技術方向上沒有太大的差異,都是空間感知定位技術。本文之後會著重介紹。Magic Leap 與 Hololens 最大的不同應該來自顯示部分,Magic Leap 是用光纖向視網膜直接投射整個數字光場 (Digital Lightfield)產生所謂的 Cinematic Reality(電影級的現實)。Hololens 採用一個半透玻璃,從側面 DLP 投影顯示,虛擬物體是總是實的,與市場上 Espon 的眼鏡顯示器或 Google Glass方案類似,是個 2 維顯示器,視角還不大,40 度左右,沉浸感會打折扣。
本質的物理原理是:光線在自由空間中的傳播,是可以由 4 維光場唯一表示的。成像平面每個像素中包含到這個像素所有方向的光的信息,對於成像平面來講方向是二維的,所以光場是 4 維的。平時成像過程只是對四維光場進行了一個二維積分(每個像素上所有方向的光的信息都疊加到一個像素點上),傳統顯示器顯示這個 2 維的圖像,是有另 2 維方向信息損失的。而 Magic Leap 是向你的視網膜直接投射整個 4 維光場, 所以人們通過 Magic Leap 看到的物體和看真實的物體從數學上是沒有什麼區別的,是沒有信息損失的。理論上,使用 Magic Leap 的設備,你是無法區分虛擬物體和現實的物體的。使用 Magic Leap 的設備,最明顯的區別於其他技術的效果是人眼可以直接選擇聚焦 (主動選擇性聚焦)。比如我要看近的物體,近的物體就實,遠的就虛。注意這不需要任何的人眼跟蹤技術,因為投射的光場還原了所有信息,所以使用者直接可以做到人眼看哪實哪,和真實物體一樣。舉個例子:在虛擬太陽系視頻的 27 秒左右(如這個 gif 圖),攝影機失焦了,然後又對上了,這個過程只發生在攝影機里,和 Magic Leap 的設備無關。換句話說,虛擬物體就在那,怎麼看是觀察者自己的事。這就是 Magic Leap 牛逼的地方,所以 Magic Leap 管自己的效果叫 Cinematic Reality。查看原圖Q2. 主動選擇性聚焦有什麼好處?傳統的虛擬顯示技術中,為什麼你會頭暈?Magic Leap 是怎麼解決這個問題的?眾所周知,人類的眼睛感知深度主要是靠兩隻眼睛和被觀察物體做三角定位(雙目定位, triangulation cue)來感知被觀察物體的與觀察者的距離的。但三角定位並不是唯一的人類感知深度的線索,人腦還集成了另一個重要的深度感知線索:人眼對焦引起的物體銳度(虛實)變化(sharpness or focus cue) 。但傳統的雙目虛擬顯示技術(如 Oculus Rift 或 Hololens) 中的物體是沒有虛實的。舉個例子,如下圖,當你看到遠處的城堡的時候,近處的虛擬的貓就應該虛了,但傳統顯示技術中,貓還是實的,所以你的大腦就會引起錯亂,以為貓是很遠的很大的一個物體。但是這和你的雙目定位的結果又不一致,經過幾百萬年進化的大腦程序一會兒以為貓在近處,一會兒以為貓在遠處,來來回回你大腦就要燒了,於是你要吐了。而 Magic Leap 投影了整個光場,所以你可以主動選擇性聚焦,這個虛擬的貓就放在了近處,你看它的時候就是實的,你看城堡的時候,它就是虛的,和真實情況一樣,所以你不會暈。演講中 Gary 調侃對於 Jean-Yves 這種帶 10 分鐘Oculus 就吐的傢伙來說,現在他一天帶 16 個小時 Magic Leap 都不會暈。誰用誰知道,巴扎嘿!補充:有人問為什麼網上說虛擬現實頭暈是因為幀率不夠原因?幀率和延時雖然是目前的主要問題,但都不是太大的問題,也不是導致暈得決定性因素。這些問題用更快的顯卡,好的 IMU 和好的屏幕,還有頭部動作預測演算法都能很好解決。我們要關心一些本質的暈眩問題。這裡要說到虛擬現實和增強現實的不同。虛擬現實中,使用者是看不到現實世界的,頭暈往往是因為人類感知重力和加速度的內耳半規管感受到的運動和視覺看到的運動不匹配導致的。所以虛擬現實的遊戲,往往會有暈車想吐的感覺。這個問題的解決不是靠單一設備可以搞定的,如果使用者的確坐在原定不動,如果圖像在高速移動,什麼裝置能騙過你的內耳半規管呢?一些市場上的方案,比如 Omni VR,或者 HTC Vive 這樣的帶 Tracking 的 VR 系統讓你實際行走才解決這個不匹配的問題,但這類系統是受場地限制的。不過 THE VOID 的應用就很好的利用了 VR 的局限,不一定要跑跳,可以用很小的空間做很大的場景,讓你以為你在一個大場景里就好了。現在大部分虛擬現實的體驗或全景電影都會以比較慢得速度移動視角,否則你就吐了。但是 Magic Leap 是 AR 增強現實,因為本來就看的到現實世界,所以不存在這個內耳半規管感知不匹配的問題。對於 AR 來講,主要挑戰是在解決眼前投影的物體和現實物體的銳度變化的問題。所以 Magic Leap 給出的解決方案是很好的解決這個問題的。但都是理論上的,至於實際工程能力怎麼樣就靠時間來證明了。
Q3. 為什麼要有頭戴式顯示器?為什麼不能裸眼全息?Magic Leap 是怎麼實現的?人類希望能憑空看到一個虛擬物體,已經想了幾百年了。各種科幻電影里也出現了很多在空氣中的全息影像。但其實想想本質就知道,這事從物理上很難實現的:純空氣中沒有可以反射或折射光的介質。顯示東西最重要的是介質。很多微信上的瘋傳,以為 Magic Leap 不需要眼鏡,我估計是翻譯錯誤導致的,視頻中寫了 Shot directly through Magic Leap tech.,很多文章錯誤的翻譯成」 直接看到」 或」 裸眼全息」,其實視頻是相機透過 Magic Leap 的技術拍的。目前全息基本還停留在全息膠片的時代(如下圖,我在光場研討會上看到的這個全息膠片的小佛像),或者初音未來演唱會那種用投影陣列向特殊玻璃(只顯示某一特定角度的圖像,而忽略其他角度的光線)做的偽全息。查看原圖Magic Leap 想實現的是把整個世界變成你的桌面這樣的願景。所以與其在世界各個地方造初音未來那樣的 3D全息透明屏做介質或弄個全息膠片,還不如直接從人眼入手,直接在眼前投入整個光場更容易。其實 Nvidia也在做這種光場眼鏡,Nvidia 採用的方法是在一個二維顯示器前加上一個微鏡頭陣列 Microlens array 來生成 4 維光場。相當於把 2 維的像素映射成 4 維,自然解析度不會高,所以這類光場顯示器或相機(Lytro)的解析度都不會高。本人親測,效果基本就是在看馬賽克畫風的圖案。而 Magic Leap 採用完全不同的一個方法實現光場顯示,它採用光纖投影。不過,Magic Leap 用的光纖投影的方式也不是什麼新東西。在 Magic Leap 做光纖投影顯示 ( Fiber optic projector) 的人是 Brian Schowengerdt ,他的導師是來自華盛頓大學的教授 Eric Seibel,致力於做超高解析度光纖內窺鏡 8年 了。簡單原理就是光纖束在一個 1mm 直徑管道內高速旋轉,改變旋轉的方向,然後就可以掃描一個較大的範圍。Magic Leap 的創始人比較聰明的地方,是找到這些做高解析度光纖掃描儀的,由於光的可逆性,倒過來就能做一個高解析度投影儀。如圖,他們 6年 前的論文,1mm 寬 9mm 長的光纖就能投射幾寸大的高清蝴蝶圖像。現在的技術估計早就超過那個時候了。而這樣的光纖高解析度投影儀還不能還原光場,需要在光纖的另一端放上一個微鏡頭陣列 microlens array,來生成 4 維光場。你會疑問這不就和 Nvidia 的方法一樣了么?不,因為光纖束是掃描性的旋轉,這個microlens array 不用做的很密很大,只要顯示掃描到的區域就好了。相當與把大量數據在時間軸上分布開了,和通訊中的分時一樣,因為人眼很難分辨 100 幀上的變化,只要掃描幀率夠高,人眼就分辨不出顯示器是否旋轉顯示的。所以 Magic Leap 的設備可以很小,解析度可以很高。查看原圖他本人也來 Stanford 給過一個 Talk,Near-to-Eye Volumetric 3D Displays using Scanned Light。這個Talk 講的應該就是 Magic Leap 早期的原型。
=== 感知部分 ===Q4. 首先為什麼增強現實要有感知部分?是因為設備需要知道自己在現實世界的位置(定位),和現實世界的三維結構(地圖構建),才能夠在顯示器中的正確位置擺放上虛擬物體。舉個最近的 Magic Leap Demo 視頻的例子,比如桌子上有一個虛擬的太陽系,設備佩戴者的頭移動得時候,太陽系還呆在原地,這就需要設備實時的知道觀看者視角的精確位置和方向,才能反算出應該在什麼位置顯示圖像。同時,可以看到桌面上還有太陽的反光,這就要做到設備知道桌子的三維結構和表面信息,才能正確的投射一個疊加影像在桌子的影像層上。難點是如何做到整個感知部分的實時計算,才能讓設備穿戴者感覺不到延時。如果定位有延時,佩戴者會產生暈眩,並且虛擬物體在屏幕上漂移會顯得非常的虛假,所謂 Magic Leap 宣稱的電影級的真實(Cinematic Reality)就沒有意義了。查看原圖(下面是本文的重點技術SLAM)三維感知部分並不是什麼新東西,計算機視覺或機器人學中的 SLAM(Simultaneous Localization And Mapping,即時定位與地圖構建)就是做這個的,已經有 30年 的歷史了。設備通過各種感測器(激光雷達,光學攝像頭,深度攝像頭,慣性感測器)的融合將得出設備自己在三位空間中的精確位置,同時又能將周圍的三位空間實時重建。最近 SLAM 技術尤其火爆,去年到今年兩年時間內巨頭們和風投收購和布局了超級多做空間定位技術的公司。因為目前最牛逼的 3 大科技技術趨勢:無人車,虛擬現實,無人機,他們都離不開空間定位。SLAM 是完成這些偉大項目基礎中的基礎。我也研究 SLAM 技術,所以接觸的比較多,為了方便大家了解這個領域,這裡簡單提幾個 SLAM 界最近的大事件和人物:1. (無人車)Stanford 的機器人教授 Sebastian Thrun 是現代 SLAM 技術的開創者,自從贏了 DARPA Grand Challenge 的無人車大賽後,去了 Google 造無人車了。SLAM 學術圈的大部分研究派系都是Sebastian 徒子徒孫。2. (無人車)Uber 在今年拿下了卡耐基梅隆 CMU 的 NREC(國家機器人工程研發中心),合作成立高等技術研發中心 ATC。 這些原來做火星車的定位技術的研究人員都去 Uber ATC 做無人車了。3. (虛擬現實)最近 Surreal Vision 被 Oculus Rift 收購,其中創始人 Richard Newcombe 是大名鼎鼎的 DTAM,KinectFusion(HoloLens 的核心技術)的發明人。Oculus Rift 還在去年收購了 13th Labs(在手機上做 SLAM 的公司)。
4.(虛擬現實)Google Project Tango 今年發布世界上第一台到手就用的商業化 SLAM 功能的平板。Apple五月收購 Metaio AR,Metaio AR 的 SLAM 很早就用在了 AR 的 app 上了。Intel 發布 Real Sense,一個可以做 SLAM 的深度攝像頭,在 CES 上 Demo 了無人機自動壁障功能和自動巡線功能。5. (無人機)由原來做 Google X Project Wing 無人機的創始人 MIT 機器人大牛 Nicholas Roy 的學生Adam Bry 創辦的 Skydio,得到 A16z 的兩千萬估值的投資,挖來了 Georgia Tech 的 SLAM 大牛教授Frank Dellaert 做他們的首席科學家。SLAM 作為一種系統耦合度高的核心基礎技術,其實全世界做 SLAM 或感測器融合做的好的大牛可能不會多於 100 人,並且大都互相認識。這麼多大公司搶這麼點人,競爭激烈程度可想而知,所以 Magic Leap 作為一個創業公司一定要融個大資,才能和大公司搶人才資源。Q5. Magic Leap 的感知部分的技術是怎麼樣的?這張照片是 Gary 教授在 Magic Leap Stanford 招聘會中展示了 Magic Leap 在感知部分的技術架構和技術路線。可以看到以 Calibration 為中心,展開成了 4 支不同的計算機視覺技術棧。查看原圖1. 從圖上看,整個 Magic Leap 感知部分的核心步驟是 Calibration(圖像或感測器校準),因為像 Magic Leap 或 Hololens 這類主動定位的設備,在設備上有各種用於定位的攝像頭和感測器, 攝像頭的參數和攝像頭之間關係參數的校準是開始一切工作的第一步。這步如果攝像頭和感測器參數都不準,後面的定位都是無稽之談。從事過計算機視覺技術的都知道,傳統的校驗部分相當花時間,需要用攝像頭拍攝 Chess Board,一遍一遍的收集校驗用的數據。但 Magic Leap 的 Gary,他們發明了一種新的 Calibration 方法,直接用一個形狀奇特的結構體做校正器,攝像頭看一遍就完成了校正,極為迅速。這個部分現場不讓拍照。2. 有了 Calibration 部分後,開始最重要的三維感知與定位部分(左下角的技術棧),分為 4 步。2.1 首先是 Planar Surface Tracking (平面表面跟蹤)。大家可以在虛擬太陽系的 Demo 中看到虛擬太陽在桌子上有反光,且這個反光會隨著設備佩戴者的移動而改變位置,就像是太陽真的懸在空中發出光源,在桌子表面反射產生的。這就要求設備實時的知道桌子的表面在哪裡,並且算出虛擬太陽與平面的關係,才能將太陽的反光的位置算出來,疊在設備佩戴者眼鏡相應的位子上,並且深度信息也是正確的。難點在平面檢測的實時性和給出平面位置的平滑性(否則反光會有跳變)從 Demo 中可以看出 Magic Leap 在這步上完成的很好。查看原圖2.2 然後是 Sparse SLAM(稀疏 SLAM); Gary 在 Info Session 上展示了他們實時的三維重構與定位演算法。為了演算法的實時性,他們先實現了高速的稀疏或半稀疏的三維定位演算法。從效果上看,和目前開源的 LSD演算法差不了太多。2.3 接著是 Sensors; Vision and IMU(視覺和慣性感測器融合 )。導彈一般是用純慣性感測器做主動定位,但同樣的方法不能用於民用級的低精度慣性感測器,二次積分後一定會漂移。而光靠視覺做主動定位,視覺部分的處理速度不高,且容易被遮檔,定位魯棒性不高。將視覺和慣性感測器融合是最近幾年非常流行的做法。舉例:Google Tango 在這方面就是做 IMU 和深度攝像頭的融合,做的很好;大疆的無人機 Phantom 3 或 Inspire 1 將光流單目相機和無人機內的慣性感測器融合,在無 GPS 的情況下,就能達到非常驚人的穩定懸停;Hololens 可以說在 SLAM 方面是的做的相當好,專門定製了一個晶元做 SLAM,演算法據說一脈相承了KinectFusion 的核心,親自測試感覺定位效果很贊(我可以面對白色無特徵的牆壁站和跳,但回到場中心後定位還是很準確的,一點都不飄。)2.4 最後是 3D Mapping and Dense SLAM (3D 地圖重建 )。下圖展示了 Magic Leap 山景城辦公室的 3D地圖重建:僅僅是帶著設備走了一圈,就還原了整個辦公室的 3D 地圖,並且有很精緻的貼圖。書架上的書都能重建的不變形。因為 AR 的交互是全新的領域,為了讓人能夠順利的和虛擬世界交互,基於機器視覺的識別和跟蹤演算法成了重中之重。全新人機交互體驗部分需要大量的技術儲備做支持。接下來的三個分支,Gary 沒有細講,但是可以看出他們的布局。我就隨便加點註解,幫助大家理解。3.1 Crowdsourcing 眾包。用於收集數據,用於之後的機器學習工作,要構建一個合理的反饋學習機制,動態的增量式的收集數據。3.2 Machine Learning Deep Learning 機器學習與深度學習。需要搭建機器學習演算法架構,用於之後的識別演算法的生產。3.3 Scenic Object Recognition 場景物體識別。識別場景中的物體,分辨物體的種類,和特徵,用於做出更好的交互。比如你看到一個小狗的時候,會識別出來,然後系統可以把狗狗 p 成個狗型怪獸,你就可以直接打怪了。3.4 Behavior Recognition 行為識別 。識別場景中的人或物的行為,比如跑還是跳,走還是坐,可能用於更加動態的遊戲交互。順便提一下,國內有家 Stanford 校友辦的叫格林深瞳的公司也在做這個方面的研究。跟蹤方面4.1 Gesture Recognition 手勢識別。用於交互,其實每個 AR/VR 公司都在做這方面的技術儲備。4.2 Object Tracking 物體追蹤。這個技術非常重要,比如 Magic Leap 的手捧大象的 Demo,至少你要知道你的手的三維位置信息,實時 Tracking,才能把大象放到正確的位子。4.3 3D Scanning 三維掃描。能夠將現實物體,虛擬化。比如你拿起一個藝術品,通過三維掃描,遠處的用戶就能夠在虛擬世界分享把玩同樣的物體。4.4 Human Tracking 人體追蹤。比如:可以將現實中的每個人物,頭上可以加個血條,能力點之類。5.1 Eye Tracking 眼動跟蹤。Gary 解釋說,雖然 Magic Leap 的呈像不需要眼動跟蹤,但因為要計算 4 維光場,Magic Leap 的渲染計算量巨大。如果做了眼動跟蹤後,就可以減少 3D 引擎的物體渲染和場景渲染的壓力,是一個優化的絕佳策略。5.2 Emotion Recognition 情感識別。如果 Magic Leap 要做一個 Her 電影中描繪的人工智慧操作系統,識別主人得情感,可以做出貼心的情感陪護效果。5.3 Biometrics 生物識別。比如要識別現實場景中的人,在每個人頭上顯示個名字啥的。人臉識別是其中一種,國內有家清華姚班師兄弟們開得公司 Face++ 就是干這個乾的最好的。總結,簡單來講感知這個部分 Magic Leap 其實和很多其他的公司大同小異,雖然有了 Gary 的加盟,野心非常的寬廣,但這部分競爭非常激烈。Q6: 就算 Magic Leap 已經搞定了感知和顯示,那麼接下來的困難是什麼?1. 計算設備與計算量。Magic Leap 要計算 4 維光場,計算量驚人。不知道 Magic Leap 現在是怎麼解決的。如果 Nvidia 不給造牛逼的移動顯卡怎麼辦?難道自己造專用電路?背著 4 塊泰坦 X 上路可不是鬧著玩的。今年我參加 SIGGraph 2015 里,其中一個 VR 演示,每個人背著個大電腦包玩 VR。10年 後的人類看今天的人類追求 VR 會不會覺得很好笑,哈哈。揭秘:連戴 16 小時不會暈的 Magic Leap,是怎麼在你腦海里打造一艘宇宙飛船的2. 電池! 電池! 電池! 所有電子設備的痛。3. 一個操作系統。說實話,如果說 「世界就是你的新桌面」 是他們的願景,現在的確沒有什麼操作系統可以支持 Magic Leap 願景下的交互。他們必須自己發明輪子。4. 為虛擬物體交互體驗增加物理感受。為了能有觸感,現在交互手套,交互手柄都是 VR 界大熱的話題。本文很長,但是細細讀下來,重點就是文章的標題了,SLAM技術,說到底就是圖形圖像識別(機器視覺)、圖形圖像感測器和實時三維建模技術,掌握了這些技術,以後的VR、AR的沉浸感會大幅度提高的!A股中與SLAM技術相關的龍頭公司莫過於中科院旗下的奧普光電002338了,其機器視覺:http://ircs.p5w.net/ircs/interaction/viewQuestion.do?questionId=3923981 …查看原圖其圖形圖像感測器:http://www.guancha.cn:8080/Science/2015_11_12_341064.shtml …
http://www.gpixelinc.com/index.php?s=/a/6.html …定位、建模、整套的類VR頭盔http://irm.cninfo.com.cn/ircs/interaction/viewQuestion.do?questionId=4620592 …查看原圖公司是長春光機所旗下唯一的上市公司,大股東長春光機所是中科院規模最大的研究所,也是我國光電領域成立最早的研究所,被譽為」中國光學的搖籃」。成立 57 年來,該所培養了包括 21名中國科學院和中國工程學院院士在內的 2,000 多名光機電領域高級人才,取得了包括兩項國家科技進步特等獎在內的 2,100 多項科研成果,在我國光電科技領域可謂舉足輕重。除了奧普光電之外,就是大恆科技600288旗下的大恆圖像,網址大恆圖像-機器視覺專家成立於1991年的大恆圖像是中國首屈一指的專註於視覺部件、視覺系統及互聯網醫療相關產品研發、生產和營銷的高科技企業。教育是個問題,你確定小孩不需要接觸真實世界裡一堆小孩一起玩?這樣的話學區一樣存在,教育本質上是你跟誰一起上學
然後是頻次略低的醫療,關鍵是醫療影像的昂貴設備,比如MRI平民化啥的,包括微晶元化驗這些將來會是風口
VR時代的時裝行業也會很弔詭,可以裝扮數字虛擬化,到底自己身上是穿還是不穿,而別人又憑什麼決定見你,VR自拍也會流行嗎?
以及製造業/真實物理世界的研發行業,沒法讓老闆把整個工廠運過來,傳送的你確定能用?
並且真心全世界VR了,流量又要升級了,華為又要賺大錢了。
說到底我其實是很支持VR顛覆地產的哈哈哈。VR技術不會影響,交通技術會,無人駕駛有可能。睡著也能在路上,那麼完全可以晚上在車上休息啊。
這讓我想起了現實版的無限月讀
在一個荒無人煙的山區,我戴個VR/AR頭盔遙控下無人機把醫生從大城市運過里給我抽血化驗?跟房價沒有任何關係,假如民眾投資無人機或者VR的熱情有投資房地產那麼熱情的話,那或許能影響房價,但是少年,不可能抱著一架無人機過日子吧?===========我是分割線==========看完各位高人的回答,以上寫的確實很潦草,不抖機靈對不起幾個點贊的知友啊,後更
Justin Liu 寫得非常好,我也一直在思考這樣的問題。其實新的技術革命已經在改變我們的生活,發達國家的無人工廠越來越多的投入使用,目前只需要極少的人工就可維持工廠的運營,如果無人駕駛和VR/AR技術成熟,無人工廠完全可以實現真正的無人工廠,即使需要人工干預也可以遠程實施。大城市的服務業崗位大量削減,物流行業不用說了,大量的實體店鋪現在已經被網路購物影響,VR/AR技術將使絕大多數的工作遠程化,人們無需去集中地點工作。在線教育未來得到極大發展,學校的師資水平差異會越來越小,小班化,老師類似於輔導員。遠程醫療將成為主流,醫學檢驗,確診,手術都可遠程。淘寶京東改變我們的購物習慣只用了十幾年時間,下一個二十年將會改變什麼呢?
物聯網吧,可能醫學需要的數據在家裡就可以採集,交流的是數據吧,如果發展的快,十年內遠程手術也可以實現。城市空間的關係,將被數據的傳送打破。數學上的拓撲,兩點的距離已經失去意義。
這讓我想起來黑客帝國
推薦閱讀:
※同類場景 AR 內容的實現和 VR 相比,哪個對技術要求更高?
※如何成為VR/AR領域的產品/交互設計師?
※怎樣從一個小白,進入AR/VR領域,都可以從哪些角度?用什麼方式?
※我想給大家說下AR的昨天今天明天可以嗎?歡迎一起討論 關於未來的AR形態?
※QQ 火炬傳遞是如何識別火炬傳遞來源賬號的?