如何看待「優衣庫4D虛擬試衣間」,以及該系統是採用什麼技術實現的?

如題:如何看待「優衣庫4D虛擬試衣間」,以及該系統是採用什麼技術實現的? (第一次在知乎上提問題,有點小激動) 附上鏈接:優衣庫 - 虛擬試衣間


插件就很明顯啊。。。unity


由於之前對虛擬試衣這一塊做的比較多,所以在這裡做個總結吧。如果文中侵犯了版權,請告知。

-----------------------------------------哇哈哈哈哈--------------------------------------------------------------------------

這個問題是16年提出來的,距離現在已經有一年的時間了。根據摩爾定律,一年之間技術很可能就能翻一倍,優衣庫的虛擬試衣技術到現在怎麼樣?現在的虛擬試衣系統發展到什麼地步了?虛擬試衣系統能不能被消費者接受?這些都是問題。

優衣庫的虛擬試衣技術到現在是什麼樣了?

http://uniqlo.3dclothes.org/data/apps/ (二維碼自動識別)

相比一年前,優衣庫網頁端虛擬試衣的界面從網頁頂部,下降到了網頁中間,似乎已經不是優衣庫公司所關注的重點技術。而在點中虛擬試衣標籤的時候,發現多了一個手機端。優衣庫在一年以前,是通過網頁端實現與消費者交互,而其中的Unity 3D網頁插件也備受吐槽。現在似乎多了一種選擇。然而網頁端還是一如既往的U3D插件:

U3D網頁插件,U3D官方自己都不推薦使用了,所以估計這個功能也快下線了。在解壓優衣庫的移動端安裝包之後,發現還是U3D引擎開發。這裡我們只對優衣庫移動端的功能和可能實現的技術進行討論。

功能及實現細節:

在APP中增加了AR、換鞋、換人頭、背景等功能,同時人體也相比之前的無臉人要好看的多。根據之前一個朋友對優衣庫的分析,他們的人體好像使用了U3D的插件uma來創建的。uma中的人體可塑性強,但是骨骼多對系統的消耗有一定影響。

系統人體不支持動作,所以很容易理解換鞋和換人頭怎麼實現。通過換mesh,再合併網格,只要美工做的好,其實並不難。背景更換直接通過添加一個3D UI就可以實現,也同樣是我一個朋友說的,聽說他們是用的NGUI實現的UI系統,所以背景是很容易實現的一個功能。而AR這個直接使用高通的插件就能實現,比較簡單。

至於換服裝,這個就很厲害了。優衣庫這裡服裝是通過伺服器載入,載入方式是通過assetbundle。之前在網頁端我們測試過,不同的體型穿服裝的效果不一樣,且褶皺也不一樣,所以猜測,優衣庫做了一個計算伺服器,將物體模擬後的服裝模型效果計算後下載到伺服器中。證明這個猜想的是,優衣庫網頁端換衣及其慢,且不同體型對應服裝褶皺不同。

而這個問題在移動端就不存在了,因為移動端根本不回去計算,直接載入模型。導致移動端模型會與人體不匹配。

現在的虛擬試衣系統發展到什麼地步了?

優衣庫只是開胃菜,虛擬試衣現在不溫不火,所以我們有必要討論一下現在虛擬試衣系統的發展。這裡我們說虛擬試衣系統,主要指網頁端和移動端,當然PC端一些虛擬試衣系統也會帶著研究一下。當然這裡討論虛擬試衣系統,主要指的是一個整套系統,而不是其中的某個技術。

虛擬試衣技術的發展可以追溯到上個世紀80年代,那個時候國外的互聯網已經興起,而國內還沒怎麼開始。這個時候就已經有人提出了用虛擬試衣來解決服裝試穿的問題。 日內瓦大學的Nadia Magnenat-Thalmann女士,在這一塊的研究可以說是先驅[1,2]。在那個沒有U3D沒有WEBGL的年代,他們用java搭建起了一個較為成熟的網頁試衣平台。

這幾篇文章裡面他們已經提出了基於圖片的人臉重建、基於多張圖片的人體重建,輸入體型參數人體體型調節、骨骼動畫的服裝跟隨等多個現在看起來都很棒的功能。一切看起來都是那麼美好,好像沒有後來者什麼事了,但是他們沒有實現自動化,以及成本,要知道在那個年代3D的成本可是很高的。

到現在虛擬試衣有一段時間向著基於kinect的體感方向發展,不知道是不是受Kinect的宣傳片的影響。

這段時間除了很多基於kinect的虛擬試衣系統。但是主要的實現,都是通過kinect去跟蹤人體骨骼,然後將服裝模型穿在一個虛擬的、透明的人體模型上。讓人覺得好像就是穿在自己身上一樣。

但服裝模型還是在人體的前面,當人體需要和出現在服裝上層時就會出現顯示問題。Isikdogan等人做了一個基於深度信息的服裝試穿系統,這裡可以將真實的人深度信息和服裝三維模型結合,並解決了分層問題。

但是效果好像並不好,雖然確實是你本人,而且服裝也穿在你身上。但是在處理點雲數據的時候,交叉部分的處理並不好。

深度相機去實現虛擬試衣系統目前看來只能在PC平台去使用,而針對移動端和網頁端,目前的發展也主要是向真實性效果前進。

這裡又是Nadia Magnenat- Thalmann大神,他們在網頁端繼續前行,實現了網頁端中的服裝與人體動作同步、單張圖片的人臉重建、服裝與人體碰撞檢測等功能。與最早的一版相比,現在的明顯在成本和自動化上都有較大的提升。

服裝與人體動作同步是通過服裝蒙皮動畫實現。通過計算服裝與人體最近網格頂點點,將人體頂點蒙皮權重賦值給服裝蒙皮。通過這種方法能夠實現服裝與人體同步運動。但是,服裝與人體仍然存在運動是的穿透。這裡給出的解決方案是,通過距離向量存儲的方式,實時保持服裝與人體模型之間的距離。這種方式雖然能保證服裝與人體在運動過程中的穿透減少,確影響了服裝的運行效果。

單張圖片的人臉重建相關演算法,在1988年的時候,vetter[7]大神就已經提出來了,但應用在虛擬試衣系統中還需要對演算法進行改進。這裡使用的是通過貼圖重建,實現人體的重建。但沒考慮到人臉拓撲網格的重建。可能是考慮到對模型整體的影響。

最新的虛擬試衣系統相關論文[8]中,可以看到都在對虛擬試衣相關演算法和論文進行討論。

在移動端,其實本質思想和網頁端相同。都是低計算量、低成本的虛擬試衣系統實現。這裡不加討論。

虛擬試衣系統能不能被消費者接受?

這一方面不好說,但是看到現在虛擬試衣的熱度,就可以知道至少目前來說,這個技術還沒有到可以實用的地步。當年虛擬試衣鏡被眾多廠商推出,但最後只能作為展銷會的噱頭來看待。所以這方面我們應該還需要等待。

05/15/2017

-----------------------------------------能力有限,只對部分文章進行討論,歡迎補充-------------------

參考文獻

[1] Frédéric Cordier, WonSook Lee, HyeWon Seo, Nadia Magnenat- Thalmann. From 2D Photos of yourself to virtual Try-on Dress on the Web// Laval Virtual,2001

[2]Frédéric Cordier, HyeWon Seo, Nadia Magnenat- Thalmann.Made-to-measure Technologies for Online Clothing Store//2003

[3] F. Isikdogan and G. Kara.A Real Time Virtual Dressing Room Application using Kinect,

[4] Stefan Hauswiesner. Free Viewpoint Virtual Try-On With Commodity Depth Cameras

[5] Interactive Virtual Try-On Based on Real-Time Motion Capture Xiaoyang Zhu,Shuxin Qin,et,al.

[6]Nadia Magnenat- Thalmann .et.al. 3D Web-Based Virtual Try On of Physically Simulated Clothes

[7] Volker Blanz,Thomas Vetter;A Morphable Model For The Synthesis Of 3D Faces// Conference on Computer Graphics Interactive Techniques, 1999:187-194

[8]Agne Lage. et.al. Vitual try-on technologies in the clothing industry.part 1:investigation of distance ease between body and garment


才4D啊,能力僅限於平行宇宙,吹牛B能力遠遠不如9DVR啊…… ;更不如女性內衣,那可都是動輒幾十D呢……。當然王者還是這個表情: XD


推薦閱讀:

為什麼優衣庫、ZARA、H&M那麼受歡迎?
為什麼工作了的人都這麼愛優衣庫?
求助,這件女士襯衫怎麼搭配好?如果有圖片更好哦!萬分感謝?
為什麼優衣庫評價這麼高?

TAG:優衣庫Uniqlo | 計算機圖形學 | 虛擬試衣 |