【转】Google Glass原理介绍
ok,就在今天,剛好看到了Google給開發者的講座視頻#[1],Timothy Jordan主講,關于Glass的功能和api之類的。有些新的信息可以補充。包括功能,操控方式,編程方式等
他將一個Glass 連接了一個數據線可以傳圖像到電腦到投影儀(演示用,一般不可以). 一開始,先說,佩戴上Glass之后它在我們視線上方,因為不想擋住視線,如果這個是設計時候就提出的,就決定了Glass的投影圖像只能位于視野上方,
------我的分析分割線-----
我補充下面的幾個圖(眼睛的圖參考了#[2]),第一個3D透視圖,然后是側視圖,然后是前視圖,還有鏡頭工作原理圖,分別為1/2/3/4,這些圖可以用后面Sergey Brin的戴著GG的圖片交叉驗證為什么圖像看起來在下方。而拍照時候他是正對著我們的。這里面和后面的圖稍微不一樣的是(大紅是顯示屏,藍色四方形是光導,灰色方體是LED,偏白色的是反射鏡,綠色(圖3)是分光鏡,藍色是投影鏡頭,大的綠色立方體當然就是棱鏡了,棱鏡里面還有個紅色的分光面和端面的鍍膜反射面,紫色的是光線路徑),由于需要不擋住人眼,就需要把顯
示屏的中心和投影鏡頭的中心偏離(詳見圖4#[3]),相當于只用上半部的鏡頭視場,這樣光線出射鏡頭之后就會朝下傳播,射出鏡頭后就是棱鏡反射了會保持朝下的方向(速度是矢量),分光之后我們就看到如照片里面的,亮的像是在棱鏡下部而不是中上。然后進入眼睛的光線會成像在視網膜下部,不要忘了,大腦理解人眼的感受圖像是上下左右顛倒的#[4]。然后我們就看到圖像是在視野上方了,至于右方,跟這個類似,只需要光線是左右斜著入射到眼睛的就行了(這里沒有畫,舉一反三即可),還有這里鍍膜反射面畫成平的,因為這里要說明的只是斜入射。其它就簡化了。另外,LED經過反光鏡再到分光鏡的這個結構,由于顯示屏的離軸放置,變得可以繼承在顯示屏旁邊進一步縮小體積。這也是為什么最下面的最近的GG產品體積如此之小,而更新答案中的原型都不同程度的存在器件突出棱鏡的情況。當然,也可能使用投射型顯示屏,光源就在顯示屏左邊了。考慮到現在的顯示屏的體積,這個方案也是非常可能的。確定這兩者之一需要數量分析了。這里定性分析已經不夠精確。
?
?
?
?
? ? ? 上圖可以示意的看半邊投影鏡頭的用法,屏幕在最左邊,出射在右邊,紅色和藍色光線分別為顯示器件的上邊緣和下邊緣。就可以得到朝下的光線,GG的實際應用中可能只有綠色和紅色表示的光線,沒有水平的藍色這部分因為人眼基本上收不到。光源很寶貴不能浪費O(∩_∩)O
------回到視頻的分割線--------
操作方式,語音,觸摸手勢,基本的頭部運動方式:
1,下圖手指位置是一個觸摸板,戴上之后碰一下會到GG的home 屏幕,home屏幕再下圖,只有時間和“ok glass” 提示,這句提示可以語音進入到執行命令的語句里面。然后手指沿著觸摸板從上往下滑就可以劃掉home屏幕,就像android手機里面的back按鈕
2,觸摸一下后激活home屏幕,可以進行語音識別,語音以ok glass開頭,然后從home屏幕跳轉到下面顯示,給出了類似子菜單一樣的命令列表,直接讀出選擇的哪一項,就可以進入類似于手機中的語音識別界面,并給出答案。并且他說GG可以有語音反饋,目前不知道GG是不是云端返回數據還是可以本地識別。有個有意思的是,他在看GG中圖像的時候,要保持眼睛朝右上角看過去,也就是說,圖像并沒有比如書本之類的容易識別,需要投入一定注意力。熟悉之后可能好了吧
3,戴著GG朝上看比如45度同樣會激活home屏幕,這次他選拍照,然后就停在下圖姿勢3秒鐘,然后就看到圖了。拍照之后圖片停1秒后消失,可以喚醒屏幕后朝前滑動觸摸板查看剛剛的照片,比較有意思的是,看的時候,如果你做了一個點頭的動作,比如遇見了一個人,點頭致意,然后照片就會消失。如果在查看照片的時候單觸(單次觸摸觸摸板,下同),彈出卡片選項,當然,sns當道的今天,share當然是第一個選項啦。這時候前后滑(在觸摸板上前后滑,下同)可以瀏覽選項。單觸選擇選項,share默認當然是Google+,下面有進度條。
4,你在GG上面的操作,是一種timeline的操作,可以前滑查看過往的卡片,例如剛剛搜索的日語。繼續滑動到home屏幕還可以往前,就進入Google now的卡片(Google真的可以把很多東西都整合)如下圖,可以單觸激活右上角的折疊按鈕,得到更多選項,這里是3天天氣預報,下滑回到原來界面。
Google Mirror API,基于云的API用來開發Glass的app,下圖是結構示意圖(接下來若干分鐘適合做軟件的同學觀看),Google可以同步其它你關注的用戶的timeline,見圖,times新聞有折疊按鈕,可以展開,可見推送到Glass上面的新聞都是進行優化過的。字大,配圖
Oyeah,然后給了軟件業最常見的hello world的代碼。。。。
和插入圖像的方法。。。。
還有rich html
和多頁的card顯示,就是有折疊按鈕的
還有一些不一一在這里說明了。可以update,delete,自定義單觸的動作,系統動作有回復,大聲讀出等,基本上都是和云端的互動,看來沒有高速無線連接是不行的。。。。。加油啊。。。移動聯通電信。。。。
還有subscription訂閱,這樣Google才可以同步和推送信息給Glass,第三方服務也需要通過這樣的流程來進入Glass
然后就進入Guideline, 如下圖,短互動比較好,不要過于干擾用戶。Glass是及時交互的產品,聚焦在用戶現在在做的事情,最新鮮的事情。時間大概是just now。還要避免意外,因為用戶是戴著Glass的,容易信息過載
然后進入new york times的應用,背景是每天工作中沒有時間坐下來看報紙,就想Glass每次推送新聞標題和主題圖片,有興趣才進去看,如下圖,ps,下圖的工作場景太屌了!!!!!太屌了啊!!!!!我也想要!!!!
然后單觸可以大聲讀出,應該是不僅是標題,應該有正文。
實現方式是插入一個多頁的timeline card,有合適的交互選項。
另一個是Gmail應用,回復全部用語音識別(嗯其實現在已經做得很好了語音識別)!!!!!然后自動發送
然后進入Evernote+ skitch
Glass隨時拍照的特性非常重要,開會的時候配合Evernote可以很方便的記錄和分析,標記。過程大約是拍圖之后點擊share到skitch,然后Google會知道,Google通知skitch,skitch推送消息到用戶手機或者平板或其它設備。用戶修改后,自動同步到云端。
然后是Path,可以smile或者其它動作(我沒用過哈)。
然后就是這次的小結,挺好的這個流程,就是演講者語言略顯拖沓,有時候長達幾秒鐘都沒有聲音。。。。。披露的信息還挺多的。
--------- 2013年4月3日18:36:39 更新--------------
好吧,今天看了下Google Glass相關的視頻,發現其中的顯示器件應該不是OLED,還是LCD+LED背光的方式。特更新下。聲明,視頻不是我拍的,我不擁有版權,如有侵權請聯系。
起因是看Sergey Brin在TED上的視頻**[1](視頻位于U2B),在某些時候他轉頭且攝像機比較近的時候,會看到有不同顏色的拖影,這一般不是OLED的特性因為OLED大多數可以直接集成RGB像素在一個芯片上,不同顏色的拖影,類似于DLP+色輪引起的效應,如下圖**[2],同一個時刻只有一個顏色的圖像,因為DLP速度比較快,不同時刻的圖像疊加在一起就可以看到完整的彩色圖像。但是可以通過一個方法來驗證,正常位置看著投影出來的畫面的時候,眼睛快速轉動,比如從左到右,如果投影儀是這樣的原理眼睛就會看到色彩分離,或者拿一張白紙在投影屏幕前面快速移動,眼睛跟著移動,也會看到類似現象。作為對比,可以對著液晶屏幕做相同快速眼睛轉動,不會看到這個現象。類似的,3LCD的投影儀例如某些Sony的型號因為是同時混色,也是看不到的。
視頻截圖如下,下圖是他頭部轉動的比較快,攝像機對的比較近的時候(吐槽下TED這個視頻都不上傳個HD的)就看到顏色分離了。在一個曝光時間內多次對攝像機進行曝光(面部都模糊掉了),這里不同的顏色和顏色之間的暗部就對應了顯示屏在不同時刻的圖像,可以看到在這個光帶的右部,從右數起有BRGBR....的順序,后面可能是因為速度變化了,顯示幀率和攝像機幀率的關系不能很好的拍到RGB的分離吧,基本上就可以確認是順序RGB顏色圖像來投影了。
然后呢,我又找到了另外一個視頻**[3],這個視頻將一個哥們跟GG的設計人員溝通和介紹的。內容很詳實,包括早期的prototype的圖都有。很具有參考價值。其中有幾個值得分析的地方,如下:
看到GG的棱鏡的鍍膜反光面,反射率非常高,基本上達到鏡面反射的程度,可以清楚的看到反射的物體,這個圖還不是最絕的,最絕的是下面那個圖。
這個圖把攝影師的影子看了個真真切切啊(我把指尖附近的圖放大放到左上角了),攝影師拿著相機的姿勢,手,頭部都可辨,另外也交叉驗證了原答案中關于鍍膜反射面是曲面的說法,是凸出來的所以人像看起來小。
下面這個圖是棱鏡那里的局部圖,可見棱鏡中間的分光面/鏡和旁邊的攝像頭。
然后,設計師Maj Isabelle Olsson出場(后文提到的專利的第一申請人,工業設計師,GG發布會上也有出現),拿出了早期的GG原型(芊芊玉手啊),然后。。。。。
然后她就戴上了,可以看到碩大的電路板,黃色的LCD顯示連接線。當然還有美女O(∩_∩)O,然后。。。
鏡頭拉近原型機擺在桌子上,可以清晰看到電路板,電路板右側的那個疑似攝像頭的小盒子,黃色的LCD數據線,還有兩根線,我認為是LED光源的線
然后可以看到對棱鏡部分的特寫圖,這樣的結構應該是類似于微型投影儀的結構,上面是LED光源,應該是白光,兩根線,下面是LCD的軟排線,且LCD前后應該有彩色濾光片,否則不能得到單色光來進行投影。由于中間空間還應該有5mm左右才到棱鏡,幾乎可以肯定中間空的有個小鏡頭。
然后為了找到支持,Google了下,找到一個和我有類似關注點,但是研究比我更深入的人,他的博客Karl Guttag on Technologyhttp://www.kguttag.com/, 他應該是做顯示行業的,一些分析也很給力,下面引用他的一些結果。大體結果和我的分析類似,但他比我更懂各個顯示器件的優勢和劣勢,做出的推測我個人認為非常接近現實
-----------下面引用Karl Guttag博客的分析**[4],英文為原作者,中文為我的說明------------
Google Glass Prototype Using Color Filter LCOS
......What caught my eye was that there were only two wires going to the LED illumination (in a white package — see picture above) which was indicative of a white LED. A field sequential device would have to have separate wires for each LED (or laser). To get a color display starting with a white light source, the device had to have color filters on it and so by a process of elimination, it had to be a color filter LCOS device.
這里作者也是先看到了我看到的那個視頻和圖(幾乎一樣的截圖),然后他知道Himax有做LCOS(Liquid crystal on silicon硅基液晶),就Google了下Himax的LCOS產品,結果,發現2010年10月香港電子展有一個圖跟GG的非常類似,如上圖,"the panel in the Google prototype is a perfect match",紅色箭頭是安裝孔位置,藍色綠色箭頭是PCB上面的絲印,都符合的很好。他查到這個顯示分辨率為320x240像素并用最近的GG圖片做佐證。
他還看到另外的文章,這個設計不同之處在于顯示器方向轉了90度,可見Google跟蘋果一樣,一款產品原型是不斷改進的。可以看到下圖白色LED那里是相對于棱鏡更突出來的,而實際產品不是,所以可以推測下圖也只是中間的一個原型(到底有多少個原型。。。。。。)。
在另一篇文章里,他談到了還有更多的更早的設計,如下圖,上面是IBM在2000年(2000年。。。給跪了。。。)的專利,好吧這里的圖顯示不出來,請到http://www.kguttag.com/2013/03/02/new-google-glass-design-likely-uses-a-transmissive-panel/?去看。IBM的專利設計可以通過旋鈕調節對焦的遠近,從18 inch到無限遠。
他通過和我不一樣的視頻,也確認了是分時分顏色投影,如下圖(再次給跪了。。。。。。他說他并沒有下載視頻(我是下載下來MPC單幀播放找到的。。。。。),就是通過播放暫停得到的。。。。。),類似的老大在動,順序投影,產生不同顏色的圖像。
他還說,不是OLED的原因是因為OLED目前的像素太大了,會造成尺寸很大,也不是DLP,類似原因,也不是LBS 激光束掃描因為不僅大,而且貴。還談到了Himax的股價變化。有興趣的朋友可以去他博客看看,很有意思。
然后針對這種顯示器件,我按照各方面的信息更細化了進入棱鏡前的光路圖。LED發出光線后經過光導匯聚和平均,打到分光鏡上,一部分反射到LCoS顯示器上,然后反射出來到Lens鏡頭上,然后進入棱鏡,后面跟下面的分析一樣了。LED和光導不一定是這個位置。
好,更新完畢,基本上這個問題回答的夠全面了吧。
PS:為什么很多好的產品都是從設計師開始的呢?我們做技術的是不是有時候思維太放不開了?
-----------2013-04-02 16:57 更新----------
@Fan ,(不好意思@之后沒有看到你,不知道可以@到你不,希望你可以看到), 不好意思表達有點爛哈, 完整而簡要的流程是:
OLED顯示----(很可能有的微型非球面透鏡組,見下圖*[1])----棱鏡54的入射面----分光鏡----棱鏡54的鍍膜反射面----分光鏡----棱鏡54的側面出射面---(隱形眼鏡/太陽鏡,如有)----進入眼睛---聚焦到視網膜上----感受到疊加在物體上的半透明實像。
你提到的自動對焦目前其實是由人眼完成,因為對不對焦只有你自己知道,而你并沒有將對焦與否或對焦好壞的信號反饋回Google Glass,所以自動對焦在這個流程中邏輯在上不能實現,其實不一定在設計上就是對準無限遠的,但一般是無限遠,這樣便于長期觀看,并且避免一些來回對焦導致的安全問題,比如走路的時候看GG上面的信息,設計圖像在你前方1米處,你聚精會神的看,忽然有車子朝你開來,這時候你的眼睛從對焦到前方1米到對焦到車子(比如5米),需要零點幾秒(當然你不需要看清才知道躲開),40千米/小時的速度,零點幾秒就可以撞到你了,萬幸的是,你沒看清的時候就已經開始躲,且司機不是酒駕,你逃過一劫,痛罵Google爛設計的同時下次再也不在路上用GG了。
?
上圖一個典型的手機攝像頭鏡頭,至少包含4個非球面,最右邊是傳感器,高度只有幾毫米
--------------下面是原答案----------------
之前都是看的多(實際上也有個xd在zhihu上面邀請我回答關于Google Glass原理的問題,當時沒時間就沒回答,不好意思了),正好有時間就研究了下相關技術問題,并作出第一次認認真真的完整長篇回答,謝謝zhihu上各種好玩的人
-------------------正式開始的分割線-------------
頭戴顯示器其實不是最近的事情了,不過Google Glass(下面簡稱GG)確實掀起了可穿戴電子的熱潮吧,GG的設計個人覺得確實很好(技術角度),配合各種服務可以做很多事情,可以說,可能性幾乎無限啊. 下面從GG的圖入手結合專利文件和網上各種圖來分析其結構和顯示原理.
先看一張來自GG網站的截圖[1],可以看到最明顯的就是沿著鏡框突出來的光學元件。光線的路徑和各部分的作用圖上已經標明。光線1由顯示器件OLED發出經過棱鏡的入射面(可以不是平面,在外殼之內),入射到棱鏡內,然后打到分光面上,在這里,光線1分成兩部分,2和3, 3當然就出射到外面了,2繼續走就到了鍍膜反射面,這個面可以是球面或者非球面的,2碰到鍍膜反射面被分成兩部分,透射光4和反射光5,透射光當然就出射出去了,反射光5繼續走又回到了分光面,又被分成兩部分6和7,6最終進入人眼,人眼看到圖像等效在無限遠,7射入回去沒什么影響,這部分光線很少了。
下面是這個判斷的支持信息:
1,為什么是OLED不是其他
最重要的是OLED的主動發光特性可以得到典型10000:1的器件對比度[2],當然還可以更高,LCD的器件對比度一般才1000:1,是結合了動態光源技術才能達到今天大家看到的多少萬的對比度。這對于GG這類產品特別重要(增強現實而不是虛擬現實),因為圖像是疊加在人眼看到的物體上的而不是完全阻斷人眼看到的物體,如下圖Sony這款虛擬現實產品[3]就完全阻斷,直接虛擬一個景給你。對于GG,任何一丁點的不需要的光線進入人眼都會造成視覺干擾。大家肯定不想GG不顯示有用信息的時候還看到有個矩形的虛影在眼前晃 (摔!),請參考LCD的漏光現象。當然LCD配合LED背光可以完全關斷得到這樣的效果,但畢竟結構比OLED復雜嘛,平白無故多了個背光進去。而且OLED響應時間快,不會出現拖影。很適合用在這里。
2,一個典型的分光棱鏡如下圖[4],需要說明的是,只要有光學界面,就不可避免的有反射和透射。差別在于比例而已。對照前面的圖1和下面Google大佬戴GG的照片,可以看到如上所說的光線3造成的前向出射光形成的像,就是棱鏡前端眼睛上部看起來藍色方形部分。
3,為什么棱鏡入射面可以不是平面,為什么鍍膜反射面不一定是球面,為什么看到圖像等效在無限遠?
這是基于目鏡的光學設計中“出射是平行光”和像差校正的要求。完全是平的就像鏡子,不會產生匯聚作用,所以需要有曲面來完成光線折射,而產生了匯聚作用并不等于圖像質量好,還需要校正主要的像差,校正像差的時候,自由度越多校正效果一般越好。所以,很可能棱鏡的前入射面和鍍膜反射面都不是球面的,且更有可能的是在OLED屏和棱鏡之間還有一個小鏡頭(現在非球面手機鏡頭都很小的隨便塞進去),如下圖是富士微單的電子取景器的光路圖[5],OLED發光經過透鏡再經過兩個球面透鏡和藍色的非球面透鏡出射為平行光,等效于無限遠物,對于正常人眼,這樣的觀察條件最放松。
4,專利文件[6]部分說明如下:
50顯示單元,54棱鏡,32攝像頭,70觸摸輸入和里面的主板,80電池,其余部分跟一般的眼鏡區別不大。50的顯示采用如LCD,CRT和OLED和一個鏡頭,如有必要。54棱鏡可調節位置。80還有配重的作用。
其中顯示單元爆炸視圖,64孔套入62,66用來固定52,54套入52,54棱鏡形狀/材料可變來達到成像要求,有接收光線面58和朝人眼的60觀察面。
最后,這個設計很精巧實用,很佩服。希望自己有一天也可以想到和設計出這么好的產品。另外,覺得回答好的點個贊同什么的。。。。有問題也歡迎交流。。。。
參考
[1]?Google Glass
[2]?http://i.daily打斷鏈接mail.co.uk/i/pix/2011/08/31/article-2032130-0DA44C7700000578-117_634x451.jpg
[3]http://www.emagin.com/wp-content/uploads/2012/03/VGA_Datasheet_Rev-1-4-640x480-Low-Power-Color-Amoled-Microdisplay1.pdf
[4]?http://www.edmund打斷鏈接optics.com/打斷鏈接images/catalog/1006878.gif
[5]?http://fujifilm-x打斷鏈接.com/x-e1/common/images/about/p02_ph03.jpg
[6] US20130044042 wearable device with input and output structures
--------------補充參考---------
*[1]?Optical Research Associates
-------------再次補充參考-------
**[1]TED-Ed | Sergey Brin talks about Google Glass at TED 2013http://ed.ted.com/on/hTV1JJ5D
**[2]?http://www.sharp打斷usa.com/ForBusiness/PresentationProducts/ProfessionalProjectors/XGPH80Series/~/media/Images/Home/ForBusiness/PresentationProducts/ProfessionalProjectors/ContentPageImages/pro_xgph80series_dlp_chip.ashx?w=532&h=193&as=1
**[3] I used Google Glass?http://www.youtube.com/watch?v=V6Tsrg_EQMw
**[4]?http://www.kguttag.com/
----------再再次補充參考--------
#[1]?http://www.youtube.com/watch?v=JpWmGX55a40
#[2]?http://hyperph打斷ysics.phy-astr.gsu.edu/hbase/vision/eyescal.html
#[3]?http://radiantso打斷lution.co.kr/images/en-dt/Image/telecentric_LCD_Projection_lens.gif
#[4]?設計魔力 ? 檢視主題
本文來源:http://www.zhihu.com/question/20276179
轉載于:https://www.cnblogs.com/ppffs/archive/2013/04/27/3048217.html
總結
以上是生活随笔為你收集整理的【转】Google Glass原理介绍的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 先锋科技引领行业 戴森成就专业造型无限可
- 下一篇: [HDU 6203] ping ping