Google Glass 使用了哪種顯示技術?具體是怎麼實現的?

Google Glass 很酷,但是它是如何顯示的呢?看起來和一般的 HUD (Head-up display) 技術很不一樣。

HUD 是利用光學反射的原理,將重要的飛行相關資訊投射在一片玻璃上面。這片玻璃位於座艙前端,文字和影像被投射在鍍膜鏡片(析光鏡)並平衡反射進飛行員的眼睛。飛行員透過 HUD 往前方看的時候,能夠輕易的將外界的景象與 HUD 顯示的資料融合在一起。(維基百科)

A typical HMD (Head-mounted display) has either one or two small displays with lenses and semi-transparent mirrors embedded in a helmet, eye-glasses (also known as data glasses) or visor. The display units are miniaturised and may include CRT, LCDs, Liquid crystal on silicon (LCos), or OLED. Some vendors employ multiple micro-displays to increase total resolution and field of view. (Via Wikipedia)


--------2013年6月14日更新國外高富帥拆機,和更新3D圖--------
文章首發於zhihu,作者謝煜(xyxygood at gmail dot com),轉載請註明
基本上這篇文章[1](謝謝 @Alex Shine )可以證實所有的東西了,當然還有很多硬體方面的,英文好的同學直接看原文,海量原汁原味信息(不得不感嘆老外拆機的專業配置,而且給的圖是原始解析度!),否則看國內轉載[2][3](謝謝@劉天聰@Alex Shine)。先放一個最終拆解的圖

之前我沒怎麼注意到Glass鏡片上有個缺口,原來是臉部感測器(眼部感測器還更貼切,負責識別「眨眼」命令)用的,文章裡面說雖然Glass目前不支持近視眼鏡,但是本著實證精神,老外還是拆下來後綁在近視眼鏡上試了下,Glass可以正常工作,但因為臉部感測器(應該是受到鏡片直接反射LED 發出的紅外光造成的干擾)工作非常不穩定。所以這和之前的分析一致,其實不是本身Glass顯示不支持近視,實際上原理上是支持的,而是為了照顧臉部感測器正常工作而不支持,當然如果支持最好肯定是Glass除去鏡架單獨出售,隨便你怎麼整。因為近視的人要看清楚Glass投射的圖像,肯定需要有近視眼鏡,所以可能的妥協就是:
1) 眼鏡片上感測器區域,鍍對應紅外波長的增透膜,把反射減小到百分之一以下,應該干擾就可以解決了。人眼可看做一個球體,感測器應該是探測剛好正對著探測器反射的光線在眨眼時的強度上升下降沿得到眨眼動作的(你是說,小眼睛不容易探測到眨眼?),鏡片反射干擾小了,應該可以穩定工作了吧。當然這樣的話,要麼是各位把自己的近視眼鏡給Google鍍膜,作為購買Glass的可選服務。或者就再配一幅Google 近視Glass;
2) 用戶換成隱形眼鏡, 查不到證實的信息,不過應該可以。對於戴眼鏡更好看的同學來說,自己取捨哈;
3) Glass提供眨眼命令的設置,可以替換成別的動作,比如點頭、搖頭(支持20連擊!)或者其它的,這樣就不存在被感測器被干擾的問題了,但眨眼這個輕便隱蔽的特性也就沒了;
4) 感測器移動到無論近視與否都沒有鏡片的地方,但保持可以探測眨眼的能力(當然更難了),或許通過現在的方案或者其它方案,比如探測眨眼相關的肌肉動作什麼的。。。。。。

之前的分析對於RGB LED的導光沒分析對,其實是用類似於液晶背光的網點導光板,當時應該想到的,這麼通用的東西。更新了3D模型,LED緊接著網點導光板LD,需要注意的是導光板出射的光線是垂直於其表面的,這樣才可以在光線方向上很薄:

下圖這個角度看到網點導光板DF和反射鏡RF,把漏到另外一面的光線再反射回來,提高利用效率,增加續航。這玩意很耗電的。手機屏幕亮度降低-&>續航增加。另外畫了個F字母來讓大家更明白這個反射投射的幾何邏輯。好了,搞定。這個投影的原理很清楚了。
從工程的角度來講,真的很佩服這樣的設計,雖然說我們從現在來看已有方案,覺得很多東西也很自然啊,沒有特別難的啊,就應該是這樣的嘛,但是時間退回去一年兩年或者幾年,剛開始做的時候(可以參照之前的答案有以前版本的原型),肯定不知道怎麼做甚至可能連做成什麼樣都不是很清楚(這個答案經歷了約兩個半月到現在這個程度),而且很難知道Glass最後會是這樣子的。體積這麼小,功能這麼好。但一旦開始去做Glass,隨著時間推進,可能的方案的解集就會逐漸收斂到目前的方案(或幾個較好的方案),中間我覺得最重要的是在一定的判據下,快速不斷的迭代得到更優的原型和產品(反正砸的起錢么)。Google很多產品都是靠快速迭代趕上/超越對手的,Chrome,android,等等。火雲邪神:「天下武功,唯快不破」。如果大家起點差不多,造成最後結果差別的,就是上升的斜率。
The END

參考
[1] http://www.catwig.com/google-glass-teardown/
[2] http://it.sohu.com/20130613/n378656154.shtml
[3] http://www.leiphone.com/google-glass-teardown.html
-------2013年06月05日更新國外拆機和硬體分析,和完整3D圖-------
關於Google Glass(GG) 的消息持續在產生中。軟硬體都有,我們一起來看下。因為開發者已經陸陸續續拿到機器,就有更深入的信息了。
先放出基本的硬體配置[1][2][3][4][5],很多地方都有這些信息呢,
CPU: TI OMAP4430
RAM: 682 MB
顯示解析度: 640 * 360
內部存儲: 16 GB
感測器:Invensense MPU9150,包含: Invensense MPU6050 三軸陀螺儀+三軸加速度計 和 Asahi Kasei AKM8975 三軸地磁探測器(羅盤); 臉部接近感測器 LiteON LTR-506ALS
另外,GG有外部控制器通過I2C和CPU通信,可以實現「眨眼」命令,而且支持最多20次眨眼(壯哉我大google支持20連擊!)!原文作者說「Looks like someone didn"t learn their lesson with triple and quadruple mouse-clicks designs.」看起來他們沒用吸取滑鼠三擊和四擊的教訓。哈哈。這個功能也可以拿來做駕駛員疲勞瞌睡探測。
軟體上[6],explorer(XE)版本的XE5版的軟體包含更多的命令,如,說出take a note則會記下語音/文字轉語音的筆記,這個功能挺實用。read aloud大聲讀出。還有多語言支持。會不會正式開賣的時候就直接支持幾十國語言呢。

然後我們看看Bill Detwiler(cnet和techrepublic)的拆機[1][5](特別關注的童鞋可能看過了。。。). 這哥們拿到GG後就想跟大家分享裡面的配置了,但是XE版的GG不容易拆解/更換零件。最後這哥們也沒有完全拆解開(提前劇透。。。。),但我們還是可以獲得一定有價值的信息。
他打開外殼之後,可以看到稜鏡,攝像頭模組,轉軸,寫了數字的應該是柔性連接線。我最想知道的投影系統仍然沒有看到,Bill說不能冒(破壞GG的)險來打開更多的部分,剛好這就是我最想看到的,就在二維碼裡面的狹小空間內。不過看不到,我們仍然可以分析得到一個接近實際的還原。

從上面更真切的看,攝像頭很小呢,為了防塵和照顧整體形狀前面做了個窗口。跟預想不一樣的是攝像頭如此小,使得背部還有2-3mm空間可以用,攝像頭的PCB後面墊著絕緣墊,標誌著攝像頭到此為止後面就不是了。可能是單純的機械支撐。看到打孔那裡,向右上方延伸的零件看起來是一個整體。攝像頭裝配的時候應該是從側面也就是左下方滑進去的,然後點膠粘住(攝像頭和支撐零件連接地方一片8字形亮的圖像就是粘膠的反光)。

翻過來可以看到連接線,從左下角眼鏡架上面過來,分成幾路(見上圖有數字的連接線往左邊進入眼鏡架),包括臉部接近感測器(rear-facing sensor(RFS) )金色的部分,攝像頭連接,顯示器連接,LED連接

臉部接近感測器特寫,下面是發送上面是接受,探測人臉距離。其後兩個金屬色的是顯示器連接(左,它的左邊還有個PCB)和攝像頭連接(右,連接裡面有深黃色的柔性PCB,手機攝像頭典型的連接方式),LED的連接在第一個圖中找,正面,靠近稜鏡的地方,有一塊金屬色的其後有黑色墊子的那塊,我想是因為直接靠著外殼所以需要墊子,顯示器攝像頭不直接接觸外殼。

下面這個看到臉部接近感測器的連接是從上面走的。這幾個連接像是手掌一樣握住整個部分,也是常用的方式,先把裡面裝配好之後,該插上的插上就可以了。電子產業進化很快的真的是。注意顯示器連接的那塊PCB和對應前面的位置那個LED連線(參考到第一個圖),我認為應該他們是面對面的,中間有個分光鏡(可參考以前的答案)

臉部接近感測器在沒有拆掉外殼的樣子。

這個圖可以看到稜鏡的尺寸大於後端零件尺寸,零件不是含著稜鏡的,而是稜鏡端面粘在零件上的。

好了,下面是獨家放送:根據以上的信息,我重建了一個3D模型,包含了上面看得到的主要部件,如圖。藍色是連接線,紅色是轉軸,灰色是鏡架,其餘的都有文字標註了哈。參照以前的答案就可以看懂啦。嗯。除了綠色部分內部結構還沒得到證實,其它基本上都證實了。

好吧技術分析就到這先,等著不差錢的高富帥拆開裡面看投影系統吧。
加一個圖[7],可以看到畫面中間是時間8:05,旁邊其實不是完全黑的,不是不想做到,而是因為顯示器件的透光比不夠高,做不到完全隔斷光線,所以顯示器件的工作區域總是有點光漏出來。形成人眼中半透明的背景。就像。。。。。

就像下面這個圖[8] 的顯示效果那樣,用相機透過GG的稜鏡拍照,這就是看到的。

好吧,再加一(ji)個(ge)圖(tu),老外Pundit Proves戴著GG去洗澡,證明其是防水的

老外強力吐槽! 佩戴一個月以後的樣子[10],和一個新詞, glasshole[11], A person who constantly talks to their Google Glass, ignoring the outside world. 其實戴多了也不會這樣的啦, 人又不是變色龍兩隻眼睛可以分開看東西. 要斜兩個都斜嘛.

最後最後放一個圖[13], 一個澳大利亞的geek因為拿不到GG,就自己做了一個,叫做Flass(說是"fake" and "glass."哈哈),用一個三星i9000,帶TVout功能,一個藍牙鍵盤和藍牙耳機,顯示器是用的Vuzix Smartglass M100, 大部分工作已經完成了其實。只是改變了圖像來源。帖子可以進去看看。

好吧,其實已經寫完了,檢查的時候,看著上面8:05的那個圖,想,能不能根據圖算出顯示器尺寸,再根據尺寸找到顯示器型號呢。google了下,很快就找到答案了哈哈哈哈哈哈哈哈哈哈哈哈哈我仰天長笑~~~謎底揭曉!!!!!

Google Glass用的是Himax的Color Sequential LCOS顯示器,型號HX7309[15],解析度640x360 ,RGB彩色,顯示區尺寸4.8*2.7毫米,下圖是典型工作圖,由於本身不帶CF,所以需要用RGB全彩LED,這個推論可以用最上面第三個圖佐證,看到LED的連接線的陰影,如果是白色LED只需要兩根線,這裡居然有4~5跟線,和RGB需要的最少4根線(共陰極)一致, 也同時解釋了8:05下面的那個圖可以是由於曝光時間較短比如1/200秒,當時只顯示R通道的圖像造成看起來是紅色的。根據這個結構,我修改了下原來的3D圖(不知道是這個型號情況下,顯示器尺寸原來是畫成4.95 mm,偏差約3%!)。然後。。。。

得到下面的圖,顯示的工作方式是在一個刷新周期內,GG將一個周期分成3個子周期,分別對應RGB(或者是RGBRGB,RRGGBB,RRGGBBGG?官網給出的[15]),每次同時點亮該顏色LED和送入該顏色的圖像。形成時間序列的圖像疊加在一起看到彩色,同時也產生運動中的RGB分離。光線從LED發出後,因為RGB的LED需要3個晶元,位置不一樣,所以可能會需要一個DiFfuser來平滑光線達到均勻的出射. 然後經過PBS, 一般的PBS透過方向是水平方向偏振光&<--&>,就透過去一半的光線,達到LCoS上,偏振方向根據單個通道的灰度值扭曲至給定方向,反射回去到PBS,在分光面產生反射,反射的時候只有部分反射光被反射,取決於反射光偏振方向,一般的,出射時還經過一個POlarizer偏振片, 消除第一次偏振分光的反射光造成的不好影響. 然後出射到稜鏡的入射面,然後到達最左端曲面反射面,到達BS2,往下出射,進入人眼,看到影像. 由於視覺暫留,不同時間的不同顏色圖像疊加在一起形成彩色圖像。
解答下為啥沒有小鏡頭在PBS和Prism之間, 正如我剛剛所說,用上面那個8:05參考[7]的那個圖,可以計算出顯示的圖像大小,把圖保存後,旋轉到水平,框選住整個稜鏡高度169像素,框選住顯示的圖像邊緣高度40像素,稜鏡高度11.4 mm,簡單一個比例一算40/169*11.4= 2.6982 mm,標稱值2.7!如果假設這樣測測量誤差是1個像素(邊緣不好框,加之還存在物距造成的放大率偏差),計算出來的尺寸區間是2.6153~ 2.7821,包含了2.7的標稱值,所以可以認為是沒有放大或縮小,看到的就是LCoS顯示器投影出來的光。而如果有鏡頭的話,不會是尺寸不變的,而且不僅是左右顛倒,還要加上旋轉180度(這點以前怎麼沒想到)所以,裡面是沒有小投影鏡頭的。到了這裡,終於比較完整的交叉驗證推論得到題主所問的問題的答案。我也在回答過程中學到很多,俗話說,自己會不算真的會,把別人教會才是真的會。所以,謝謝題主!寫到最後那種條條線索一致的串成一張網的時候,心理那個舒坦啊。
後面高富帥完全拆機的話,再來驗證!

[1] http://www.techrepublic.com/photos/cracking-open-the-google-glass-explorer-edition/6416082?seq=40tag=thumbnail-view-selector;get-photo-roto
[2] http://thecodeartist.blogspot.com/2013/05/sensors-on-google-glass.html
[3] https://plus.google.com/108304992255149838420/posts/GwvagwVN6Hz
[4] https://developers.google.com/glass/ui-guidelines
[5] http://news.cnet.com/8301-17938_105-57584381-1/google-glass-explorer-edition-teardown-reveals-hits-and-misses-on-repairability/
[6] http://www.androidpolice.com/2013/05/08/apk-teardown-google-glass-xe5-a-take-a-note-and-menu-voice-commands-more-wink-work-and-localization-progress/
[7] http://readwrite.com/2013/05/08/google-glass-faq-what-do-you-want-to-know
[8] http://www.technologyreview.com/view/514696/want-to-see-what-its-like-to-wear-google-glass/
[9] http://www.gottabemobile.com/2013/04/29/pundit-proves-google-glass-is-water-resistant-with-shower/
[10] http://tech.slashdot.org/story/13/03/16/1328239/should-we-be-afraid-of-google-glass
[11] http://www.urbandictionary.com/define.php?term=Glasshole
[12] http://news.cnet.com/8301-17938_105-57582749-1/hacker-builds-google-glass-clone/
[13] http://forums.overclockers.com.au/showthread.php?t=1074078
[14] http://www.vuzix.com/consumer/products_m100.html
[15] http://www.himaxdisplay.com/en/product/HX7309.asp
------------2013年4月4日20:00:19 更新,稍微擴展了該問題------------
ok,就在今天,剛好看到了Google給開發者的講座視頻#[1],Timothy Jordan主講,關於Glass的功能和api之類的。有些新的信息可以補充。包括功能,操控方式,編程方式等
他將一個Glass 連接了一個數據線可以傳圖像到電腦到投影儀(演示用,一般不可以). 一開始,先說,佩戴上Glass之後它在我們視線上方,因為不想擋住視線,如果這個是設計時候就提出的,就決定了Glass的投影圖像只能位於視野上方,
------我的分析分割線-----
我補充下面的幾個圖(眼睛的圖參考了#[2]),第一個3D透視圖,然後是側視圖,然後是前視圖,還有鏡頭工作原理圖,分別為1/2/3/4,這些圖可以用後面Sergey Brin的戴著GG的圖片交叉驗證為什麼圖像看起來在下方。而拍照時候他是正對著我們的。這裡面和後面的圖稍微不一樣的是(大紅是顯示屏,藍色四方形是光導,灰色方體是LED,偏白色的是反射鏡,綠色(圖3)是分光鏡,藍色是投影鏡頭,大的綠色立方體當然就是稜鏡了,稜鏡裡面還有個紅色的分光面和端面的鍍膜反射面,紫色的是光線路徑),由於需要不擋住人眼,就需要把顯
示屏的中心和投影鏡頭的中心偏離(詳見圖4#[3]),相當於只用上半部的鏡頭視場,這樣光線出射鏡頭之後就會朝下傳播,射出鏡頭後就是稜鏡反射了會保持朝下的方向(速度是矢量),分光之後我們就看到如照片裡面的,亮的像是在稜鏡下部而不是中上。然後進入眼睛的光線會成像在視網膜下部,不要忘了,大腦理解人眼的感受圖像是上下左右顛倒的#[4]。然後我們就看到圖像是在視野上方了,至於右方,跟這個類似,只需要光線是左右斜著入射到眼睛的就行了(這裡沒有畫,舉一反三即可),還有這裡鍍膜反射面畫成平的,因為這裡要說明的只是斜入射。其它就簡化了。另外,LED經過反光鏡再到分光鏡的這個結構,由於顯示屏的離軸放置,變得可以繼承在顯示屏旁邊進一步縮小體積。這也是為什麼最下面的最近的GG產品體積如此之小,而更新答案中的原型都不同程度的存在器件突出稜鏡的情況。當然,也可能使用投射型顯示屏,光源就在顯示屏左邊了。考慮到現在的顯示屏的體積,這個方案也是非常可能的。確定這兩者之一需要數量分析了。這裡定性分析已經不夠精確。

上圖可以示意的看半邊投影鏡頭的用法,屏幕在最左邊,出射在右邊,紅色和藍色光線分別為顯示器件的上邊緣和下邊緣。就可以得到朝下的光線,GG的實際應用中可能只有綠色和紅色表示的光線,沒有水平的藍色這部分因為人眼基本上收不到。光源很寶貴不能浪費O(∩_∩)O
------回到視頻的分割線--------
操作方式,語音,觸摸手勢,基本的頭部運動方式:
1,下圖手指位置是一個觸摸板,戴上之後碰一下會到GG的home 屏幕,home屏幕再下圖,只有時間和「ok glass」 提示,這句提示可以語音進入到執行命令的語句裡面。然後手指沿著觸摸板從上往下滑就可以劃掉home屏幕,就像android手機裡面的back按鈕

2,觸摸一下後激活home屏幕,可以進行語音識別,語音以ok glass開頭,然後從home屏幕跳轉到下面顯示,給出了類似子菜單一樣的命令列表,直接讀出選擇的哪一項,就可以進入類似於手機中的語音識別界面,並給出答案。並且他說GG可以有語音反饋,目前不知道GG是不是雲端返回數據還是可以本地識別。有個有意思的是,他在看GG中圖像的時候,要保持眼睛朝右上角看過去,也就是說,圖像並沒有比如書本之類的容易識別,需要投入一定注意力。熟悉之後可能好了吧

3,戴著GG朝上看比如45度同樣會激活home屏幕,這次他選拍照,然後就停在下圖姿勢3秒鐘,然後就看到圖了。拍照之後圖片停1秒後消失,可以喚醒屏幕後朝前滑動觸摸板查看剛剛的照片,比較有意思的是,看的時候,如果你做了一個點頭的動作,比如遇見了一個人,點頭致意,然後照片就會消失。如果在查看照片的時候單觸(單次觸摸觸摸板,下同),彈出卡片選項,當然,sns當道的今天,share當然是第一個選項啦。這時候前後滑(在觸摸板上前後滑,下同)可以瀏覽選項。單觸選擇選項,share默認當然是Google+,下面有進度條。

4,你在GG上面的操作,是一種timeline的操作,可以前滑查看過往的卡片,例如剛剛搜索的日語。繼續滑動到home屏幕還可以往前,就進入Google now的卡片(Google真的可以把很多東西都整合)如下圖,可以單觸激活右上角的摺疊按鈕,得到更多選項,這裡是3天天氣預報,下滑回到原來界面。

Google Mirror API,基於雲的API用來開發Glass的app,下圖是結構示意圖(接下來若干分鐘適合做軟體的同學觀看),Google可以同步其它你關注的用戶的timeline,見圖,times新聞有摺疊按鈕,可以展開,可見推送到Glass上面的新聞都是進行優化過的。字大,配圖

Oyeah,然後給了軟體業最常見的hello world的代碼。。。。

和插入圖像的方法。。。。

還有rich html

和多頁的card顯示,就是有摺疊按鈕的

還有一些不一一在這裡說明了。可以update,delete,自定義單觸的動作,系統動作有回復,大聲讀出等,基本上都是和雲端的互動,看來沒有高速無線連接是不行的。。。。。加油啊。。。移動聯通電信。。。。
還有subscription訂閱,這樣Google才可以同步和推送信息給Glass,第三方服務也需要通過這樣的流程來進入Glass

然後就進入Guideline, 如下圖,短互動比較好,不要過於干擾用戶。Glass是及時交互的產品,聚焦在用戶現在在做的事情,最新鮮的事情。時間大概是just now。還要避免意外,因為用戶是戴著Glass的,容易信息過載

然後進入new york times的應用,背景是每天工作中沒有時間坐下來看報紙,就想Glass每次推送新聞標題和主題圖片,有興趣才進去看,如下圖,ps,下圖的工作場景太屌了!!!!!太屌了啊!!!!!我也想要!!!!

然後單觸可以大聲讀出,應該是不僅是標題,應該有正文。
實現方式是插入一個多頁的timeline card,有合適的交互選項。

另一個是Gmail應用,回復全部用語音識別(嗯其實現在已經做得很好了語音識別)!!!!!然後自動發送

然後進入Evernote+ skitch
Glass隨時拍照的特性非常重要,開會的時候配合Evernote可以很方便的記錄和分析,標記。過程大約是拍圖之後點擊share到skitch,然後Google會知道,Google通知skitch,skitch推送消息到用戶手機或者平板或其它設備。用戶修改後,自動同步到雲端。

然後是Path,可以smile或者其它動作(我沒用過哈)。
然後就是這次的小結,挺好的這個流程,就是演講者語言略顯拖沓,有時候長達幾秒鐘都沒有聲音。。。。。披露的信息還挺多的。

--------- 2013年4月3日18:36:39 更新--------------
好吧,今天看了下Google Glass相關的視頻,發現其中的顯示器件應該不是OLED,還是LCD+LED背光的方式。特更新下。聲明,視頻不是我拍的,我不擁有版權,如有侵權請聯繫。
起因是看Sergey Brin在TED上的視頻**[1](視頻位於U2B),在某些時候他轉頭且攝像機比較近的時候,會看到有不同顏色的拖影,這一般不是OLED的特性因為OLED大多數可以直接集成RGB像素在一個晶元上,不同顏色的拖影,類似於DLP+色輪引起的效應,如下圖**[2],同一個時刻只有一個顏色的圖像,因為DLP速度比較快,不同時刻的圖像疊加在一起就可以看到完整的彩色圖像。但是可以通過一個方法來驗證,正常位置看著投影出來的畫面的時候,眼睛快速轉動,比如從左到右,如果投影儀是這樣的原理眼睛就會看到色彩分離,或者拿一張白紙在投影屏幕前面快速移動,眼睛跟著移動,也會看到類似現象。作為對比,可以對著液晶屏幕做相同快速眼睛轉動,不會看到這個現象。類似的,3LCD的投影儀例如某些Sony的型號因為是同時混色,也是看不到的。

視頻截圖如下,下圖是他頭部轉動的比較快,攝像機對的比較近的時候(吐槽下TED這個視頻都不上傳個HD的)就看到顏色分離了。在一個曝光時間內多次對攝像機進行曝光(面部都模糊掉了),這裡不同的顏色和顏色之間的暗部就對應了顯示屏在不同時刻的圖像,可以看到在這個光帶的右部,從右數起有BRGBR....的順序,後面可能是因為速度變化了,顯示幀率和攝像機幀率的關係不能很好的拍到RGB的分離吧,基本上就可以確認是順序RGB顏色圖像來投影了。

然後呢,我又找到了另外一個視頻**[3],這個視頻將一個哥們跟GG的設計人員溝通和介紹的。內容很詳實,包括早期的prototype的圖都有。很具有參考價值。其中有幾個值得分析的地方,如下:
看到GG的稜鏡的鍍膜反光面,反射率非常高,基本上達到鏡面反射的程度,可以清楚的看到反射的物體,這個圖還不是最絕的,最絕的是下面那個圖。

這個圖把攝影師的影子看了個真真切切啊(我把指尖附近的圖放大放到左上角了),攝影師拿著相機的姿勢,手,頭部都可辨,另外也交叉驗證了原答案中關於鍍膜反射面是曲面的說法,是凸出來的所以人像看起來小。

下面這個圖是稜鏡那裡的局部圖,可見稜鏡中間的分光面/鏡和旁邊的攝像頭。

然後,設計師Maj Isabelle Olsson出場(後文提到的專利的第一申請人,工業設計師,GG發布會上也有出現),拿出了早期的GG原型(芊芊玉手啊),然後。。。。。

然後她就戴上了,可以看到碩大的電路板,黃色的LCD顯示連接線。當然還有美女O(∩_∩)O,然後。。。

鏡頭拉近原型機擺在桌子上,可以清晰看到電路板,電路板右側的那個疑似攝像頭的小盒子,黃色的LCD數據線,還有兩根線,我認為是LED光源的線

然後可以看到對稜鏡部分的特寫圖,這樣的結構應該是類似於微型投影儀的結構,上面是LED光源,應該是白光,兩根線,下面是LCD的軟排線,且LCD前後應該有彩色濾光片,否則不能得到單色光來進行投影。由於中間空間還應該有5mm左右才到稜鏡,幾乎可以肯定中間空的有個小鏡頭。

然後為了找到支持,Google了下,找到一個和我有類似關注點,但是研究比我更深入的人,他的博客Karl Guttag on Technologyhttp://www.kguttag.com/, 他應該是做顯示行業的,一些分析也很給力,下面引用他的一些結果。大體結果和我的分析類似,但他比我更懂各個顯示器件的優勢和劣勢,做出的推測我個人認為非常接近現實
-----------下面引用Karl Guttag博客的分析**[4],英文為原作者,中文為我的說明------------
Google Glass Prototype Using Color Filter LCOS

......What caught my eye was that there were only two wires going to the LED illumination (in a white package — see picture above) which was indicative of a white LED. A field sequential device would have to have separate wires for each LED (or laser). To get a color display starting with a white light source, the device had to have color filters on it and so by a process of elimination, it had to be a color filter LCOS device.
這裡作者也是先看到了我看到的那個視頻和圖(幾乎一樣的截圖),然後他知道Himax有做LCOS(Liquid crystal on silicon硅基液晶),就Google了下Himax的LCOS產品,結果,發現2010年10月香港電子展有一個圖跟GG的非常類似,如上圖,"the panel in the Google prototype is a perfect match",紅色箭頭是安裝孔位置,藍色綠色箭頭是PCB上面的絲印,都符合的很好。他查到這個顯示解析度為320x240像素並用最近的GG圖片做佐證。
他還看到另外的文章,這個設計不同之處在於顯示器方向轉了90度,可見Google跟蘋果一樣,一款產品原型是不斷改進的。可以看到下圖白色LED那裡是相對於稜鏡更突出來的,而實際產品不是,所以可以推測下圖也只是中間的一個原型(到底有多少個原型。。。。。。)。

在另一篇文章里,他談到了還有更多的更早的設計,如下圖,上面是IBM在2000年(2000年。。。給跪了。。。)的專利,好吧這裡的圖顯示不出來,請到http://www.kguttag.com/2013/03/02/new-google-glass-design-likely-uses-a-transmissive-panel/ 去看。IBM的專利設計可以通過旋鈕調節對焦的遠近,從18 inch到無限遠。
他通過和我不一樣的視頻,也確認了是分時分顏色投影,如下圖(再次給跪了。。。。。。他說他並沒有下載視頻(我是下載下來MPC單幀播放找到的。。。。。),就是通過播放暫停得到的。。。。。),類似的老大在動,順序投影,產生不同顏色的圖像。

他還說,不是OLED的原因是因為OLED目前的像素太大了,會造成尺寸很大,也不是DLP,類似原因,也不是LBS 激光束掃描因為不僅大,而且貴。還談到了Himax的股價變化。有興趣的朋友可以去他博客看看,很有意思。
然後針對這種顯示器件,我按照各方面的信息更細化了進入稜鏡前的光路圖。LED發出光線後經過光導匯聚和平均,打到分光鏡上,一部分反射到LCoS顯示器上,然後反射出來到Lens鏡頭上,然後進入稜鏡,後面跟下面的分析一樣了。LED和光導不一定是這個位置。

好,更新完畢,基本上這個問題回答的夠全面了吧。
PS:為什麼很多好的產品都是從設計師開始的呢?我們做技術的是不是有時候思維太放不開了?

-----------2013-04-02 16:57 更新----------
@Fan ,(不好意思@之後沒有看到你,不知道可以@到你不,希望你可以看到), 不好意思表達有點爛哈, 完整而簡要的流程是:
OLED顯示----(很可能有的微型非球面透鏡組,見下圖*[1])----稜鏡54的入射面----分光鏡----稜鏡54的鍍膜反射面----分光鏡----稜鏡54的側面出射面---(隱形眼鏡/太陽鏡,如有)----進入眼睛---聚焦到視網膜上----感受到疊加在物體上的半透明實像。
你提到的自動對焦目前其實是由人眼完成,因為對不對焦只有你自己知道,而你並沒有將對焦與否或對焦好壞的信號反饋回Google Glass,所以自動對焦在這個流程中邏輯在上不能實現,其實不一定在設計上就是對準無限遠的,但一般是無限遠,這樣便於長期觀看,並且避免一些來回對焦導致的安全問題,比如走路的時候看GG上面的信息,設計圖像在你前方1米處,你聚精會神的看,忽然有車子朝你開來,這時候你的眼睛從對焦到前方1米到對焦到車子(比如5米),需要零點幾秒(當然你不需要看清才知道躲開),40千米/小時的速度,零點幾秒就可以撞到你了,萬幸的是,你沒看清的時候就已經開始躲,且司機不是酒駕,你逃過一劫,痛罵Google爛設計的同時下次再也不在路上用GG了。

上圖一個典型的手機攝像頭鏡頭,至少包含4個非球面,最右邊是感測器,高度只有幾毫米

--------------下面是原答案----------------
之前都是看的多(實際上也有個xd在zhihu上面邀請我回答關於Google Glass原理的問題,當時沒時間就沒回答,不好意思了),正好有時間就研究了下相關技術問題,並作出第一次認認真真的完整長篇回答,謝謝zhihu上各種好玩的人
-------------------正式開始的分割線-------------
頭戴顯示器其實不是最近的事情了,不過Google Glass(下面簡稱GG)確實掀起了可穿戴電子的熱潮吧,GG的設計個人覺得確實很好(技術角度),配合各種服務可以做很多事情,可以說,可能性幾乎無限啊. 下面從GG的圖入手結合專利文件和網上各種圖來分析其結構和顯示原理.
先看一張來自GG網站的截圖[1],可以看到最明顯的就是沿著鏡框突出來的光學元件。光線的路徑和各部分的作用圖上已經標明。光線1由顯示器件OLED發出經過稜鏡的入射面(可以不是平面,在外殼之內),入射到稜鏡內,然後打到分光面上,在這裡,光線1分成兩部分,2和3, 3當然就出射到外面了,2繼續走就到了鍍膜反射面,這個面可以是球面或者非球面的,2碰到鍍膜反射面被分成兩部分,透射光4和反射光5,透射光當然就出射出去了,反射光5繼續走又回到了分光面,又被分成兩部分6和7,6最終進入人眼,人眼看到圖像等效在無限遠,7射入回去沒什麼影響,這部分光線很少了。

下面是這個判斷的支持信息:

1,為什麼是OLED不是其他
最重要的是OLED的主動發光特性可以得到典型10000:1的器件對比度[2],當然還可以更高,LCD的器件對比度一般才1000:1,是結合了動態光源技術才能達到今天大家看到的多少萬的對比度。這對於GG這類產品特別重要(增強現實而不是虛擬現實),因為圖像是疊加在人眼看到的物體上的而不是完全阻斷人眼看到的物體,如下圖Sony這款虛擬現實產品[3]就完全阻斷,直接虛擬一個景給你。對於GG,任何一丁點的不需要的光線進入人眼都會造成視覺干擾。大家肯定不想GG不顯示有用信息的時候還看到有個矩形的虛影在眼前晃 (摔!),請參考LCD的漏光現象。當然LCD配合LED背光可以完全關斷得到這樣的效果,但畢竟結構比OLED複雜嘛,平白無故多了個背光進去。而且OLED響應時間快,不會出現拖影。很適合用在這裡。

2,一個典型的分光稜鏡如下圖[4],需要說明的是,只要有光學界面,就不可避免的有反射和透射。差別在於比例而已。對照前面的圖1和下面Google大佬戴GG的照片,可以看到如上所說的光線3造成的前向出射光形成的像,就是稜鏡前端眼睛上部看起來藍色方形部分。

3,為什麼稜鏡入射面可以不是平面,為什麼鍍膜反射面不一定是球面,為什麼看到圖像等效在無限遠?
這是基於目鏡的光學設計中「出射是平行光」和像差校正的要求。完全是平的就像鏡子,不會產生匯聚作用,所以需要有曲面來完成光線折射,而產生了匯聚作用並不等於圖像質量好,還需要校正主要的像差,校正像差的時候,自由度越多校正效果一般越好。所以,很可能稜鏡的前入射面和鍍膜反射面都不是球面的,且更有可能的是在OLED屏和稜鏡之間還有一個小鏡頭(現在非球面手機鏡頭都很小的隨便塞進去),如下圖是富士微單的電子取景器的光路圖[5],OLED發光經過透鏡再經過兩個球面透鏡和藍色的非球面透鏡出射為平行光,等效於無限遠物,對於正常人眼,這樣的觀察條件最放鬆。

4,專利文件[6]部分說明如下:
50顯示單元,54稜鏡,32攝像頭,70觸摸輸入和裡面的主板,80電池,其餘部分跟一般的眼鏡區別不大。50的顯示採用如LCD,CRT和OLED和一個鏡頭,如有必要。54稜鏡可調節位置。80還有配重的作用。

其中顯示單元爆炸視圖,64孔套入62,66用來固定52,54套入52,54稜鏡形狀/材料可變來達到成像要求,有接收光線面58和朝人眼的60觀察面。

最後,這個設計很精巧實用,很佩服。希望自己有一天也可以想到和設計出這麼好的產品。另外,覺得回答好的點個贊同什麼的。。。。有問題也歡迎交流。。。。


參考
[1] Google Glass
[2] http://i.daily打斷鏈接mail.co.uk/i/pix/2011/08/31/article-2032130-0DA44C7700000578-117_634x451.jpg
[3]http://www.emagin.com/wp-content/uploads/2012/03/VGA_Datasheet_Rev-1-4-640x480-Low-Power-Color-Amoled-Microdisplay1.pdf
[4] http://www.edmund打斷鏈接optics.com/打斷鏈接images/catalog/1006878.gif
[5] http://fujifilm-x打斷鏈接.com/x-e1/common/images/about/p02_ph03.jpg
[6] US20130044042 wearable device with
input and output structures
--------------補充參考---------
*[1] Optical Research Associates
-------------再次補充參考-------
**[1]TED-Ed | Sergey Brin talks about Google Glass at TED 2013http://ed.ted.com/on/hTV1JJ5D
**[2] http://www.sharp打斷usa.com/ForBusiness/PresentationProducts/ProfessionalProjectors/XGPH80Series/~/media/Images/Home/ForBusiness/PresentationProducts/ProfessionalProjectors/ContentPageImages/pro_xgph80series_dlp_chip.ashx?w=532h=193as=1
**[3] I used Google Glass http://www.youtube.com/watch?v=V6Tsrg_EQMw
**[4] http://www.kguttag.com/
----------再再次補充參考--------
#[1] http://www.youtube.com/watch?v=JpWmGX55a40
#[2] http://hyperph打斷ysics.phy-astr.gsu.edu/hbase/vision/eyescal.html
#[3] http://radiantso打斷lution.co.kr/images/en-dt/Image/telecentric_LCD_Projection_lens.gif
#[4] http://twdesign.net/design/viewtopic.php?t=6785


剛在另一個問題下回答了,順便看到這個,也過來留一句。參見我另一個問題下的回答 谷歌眼鏡的屏幕離眼鏡那麼近,為什麼能看得清楚?

@金秉文 從專利上看,Google Glass 更可能用的是菲涅爾凹面鏡
@Fan 據我所知,Google Glass 目前只是一個框架,對於有視力缺陷的人而言,本來戴什麼眼鏡就戴什麼眼鏡即可,外面套上 Google Glass 就行了


根據Google Glass發布會,以及公司公布的相關消息(後面有Cite),目前使用的是抬頭顯視(HUD,Head-up display)技術,可惜目前出來的原型機所使用HUD,與飛機上的投影反射不同,只是一個透明的AMOLED顯示器。這樣有擴展數據顯示在屏幕上的做法稱作增強現實(AR,augmented reality)。

例:下圖是可應用在汽車玻璃上的透明OLED,用於代替儀錶盤顯示部分數據。

························結論來自以下一系列來源及分析····························


Google shows off Project Glass 中提到,

Google"s glasses superimpose what"s known as a head"s up display (HUD) over your visual field.

此消息中提及,目前還是用HUD技術


Project Glass 中提到GG第一代原型機使用的是HUD替代傳統的鏡片

The first Project Glass demo resembles a pair of normal eyeglasses where the lens is replaced by a head-up display.

Google的一項專利(美國專利商標局206338號)也顯示,目前使用的是HUD,但是下一代可能會採用頭戴式顯示器(HMD,head mounted display)
註:HMD就是看起來跟普通眼鏡一樣,但是可以在整個鏡片上疊加,區域更大更實用,也是當初設計的一個夢想。
Google Glass V2 Could Be Binocular, And Even Double As Stealth Hearing Aids 中對這個專利相關也進行了分析,

Creating a heads-up display (HUD) where a single computer generated image (CGI) is superimposed over a user』s field of vision to create the effect known as augmented reality, as Google has with the first version of Glass, is impressive enough.

目前使用的是抬頭顯視(HUD):通過計算機生成圖像(GUI),疊加在用戶視野中,這樣的效應成為增強現實(AR),而這樣的技術已經令人覺得很牛X了,以後的改進以後再說。

Update:有人提出對於近視人使用,以及遠近互換的對焦常常變換的問題,Google未來的想法是通過佩戴專用的雙濾鏡隱形眼鏡來解決。


是時候祭上這張圖了


我只想說圖像識別的技術是我們團隊提供的。跑個題。。


不會是一個簡單的透明顯示器

我剛才用自己的手指頭做了個測試,發現我的眼睛難以看清10cm之內的物體。所以,如果Google Glass (GG) 只是把一個顯示器放在眼睛前面,那麼我是不可能看得清它的,我相信,在那麼近的距離,大多數人都看不清。

所以,如果GG真的要用類似於OLED的東西做顯示,那一定要在OLED的前面在放一個能起到透鏡的作用的東西,這個東西最好也是平的,那樣厚度就可以更小一些。什麼?平的透鏡?沒有錯,比如菲涅耳透鏡。我把wiki的圖貼過來了,下圖的1就是菲涅耳透鏡,2是普通透鏡。

至於HUD,它是即使很近也能看得清的,因為它發出的光是平行光(中文wiki上也管HUD叫平視顯示器)。簡單的說就是投影儀中射出的光經過透鏡的折射和顯示屏的反射之後變成了平行光。在下面這個「比較舊型的平視顯示器」(也來自wiki)中可以明顯看到透鏡的存在。但是,從Head-up display這個名字來看,新的HUD也完全可能採用其它顯示技術來做,因為只要是能夠實現「抬著頭能看到」這個功能的顯示器,都可以叫HUD。不過,不管怎樣,都不是單單一個小一點的顯示器或者投影儀能做成的事情。

另外,考慮到那麼多近視(遠視)的人的存在,GG如果不能調焦,那麼我們就要像配眼鏡一樣去配GG了,到時候大街小巷的眼鏡店就要打出一個新招牌:專業配GG鏡片。話說回來,在GG正式發布之前,也只能做這麼點猜測而已。


code geass


LOCS是通過反射外來光顯示的,OLED是自發光顯示的


LCOS (Liquid Crystal On Silicon)
反射型液晶顯示屏,跟投影機的原理一樣


谷歌眼鏡為何用HX7309而不是像素高的HX7308,前者是640*360而後者是1024*768。難道後者不能當成第二塊手機屏幕使用?


GLGLASS採用波導技術的一種—反射波導(reflective waveguide)顯示技術


推薦閱讀:

Google 和 SONY 的黑科技誰更?黑??

TAG:谷歌Google | GoogleGlass |