OmniXRI (Omni-eXtened Reality Interaction) 歐尼克斯實境互動工作室是一個全方位電腦視覺、實境互動、邊緣計算及人工智慧技術的愛好者及分享者,歡迎大家不吝留言指教多多交流。 這裡的文章大部份是個人原創,如有引用到他人內容都會註明,若不慎疏漏侵犯到,煩請儘快通知,我們會儘速處理。當然這裡的資料也歡迎引用及推廣,煩請註明出處(網頁網址),謝謝!
2017年11月18日 星期六
穿戴式顯示互動專利分析_技術魚骨圖
整理相關專利技術分類後,大致可分為四大領域,以下分別說明之。
資訊顯示位置:
由於擴增實境最主要的功能就是把虛擬物件影像或文字內容疊加在真實世界,(可參考實境互動現況與趨勢_擴增實境分類)影像內容可能是直接投影至眼睛(視網膜)、眼鏡或透明板子上,甚至可直接投影到真實世界,當然也可合成後再顯示在一般顯示器上。
虛擬物件定位:
預備疊合至真實世界的影像若不知真實場景狀況(如位置、尺度、角度等)則難以正確疊合,因此需要透過許多方式先進行偵測,如利用攝影機取得特定標記或場景攝影直接取得參考物件影像或由運動感測器(加速度計、陀螺儀、地磁計等)了解使用者頭部姿態或透過眼球追蹤器來了解目前使用者觀賞狀況。
人機互動:
有部份專利著重在光學或設備架構上,因此不一定會有這個部份。而當顯示內容需要隨操作者或環境變動時,就需要透過一些裝置來輔助,最直接的想法就是利用現成的鍵盤、滑鼠的實體物件進行互動,但擴增實境應經常要把手空出來操作其它物件,因此非接觸式人機互動介面就常出現在這些專利中,如語音、眼動、手勢甚至是全身動作等。但有時使用者對於在空氣中操作覺得很不方便,因此亦出現部份專利採用一些小道具(如筆)來輔助互動,使得操作虛擬影像時更具臨場感。
應用領域:
有很多專利不主打實體技術發展,而針對各領域應用擴增實境程序進行申請專利,因此這類專利中通常會藉用別人已實現的頭戴顯示器來說明本身專利所述情境如何實現。由於擴增實境本身最主要功能就是疊合虛擬影像或文字至真實世界,故本次統計時若該專利沒有特別強調應用領域時,都會被歸類到「資訊導引」類別,而實際上亦可應用到其它類別中。
參考資料來源:2015年大專院校專利分析與佈局競賽作品「穿戴式顯示及互動」
回到簡報首頁:實境互動新技術簡報分享
上一頁:穿戴式顯示互動專利分析_專利分類號分析
下一頁:SIGGRAPH技術分享_ACM SIGGRAPH 2017技術分享
訂閱:
張貼留言 (Atom)
【頂置】簡報、源碼、系列文快速連結區
常有人反應用手機瀏覽本部落格時常要捲很多頁才能找到系列發文、開源專案、課程及活動簡報,為了方便大家快速查詢,特整理連結如下,敬請參考! Edge AI Taiwan 邊緣智能交流區 全像顯示與互動交流區 台科大(NTUST) 人工智慧與邊緣運算實務 開南大學...
-
作者:Jack OmniXRI, 2024/10/15 留言 相信有在玩AI影像「物件偵測」的朋友對於YOLO(Yolo Only Look Once)一定不會陌生。從2015年第一版(v1)問世至今,在各路大神的努力之下,現在已發展到第十一版(v11),而其中 v4, v7...
-
作者: Jack OmniXRI 2024/10/31 今天剛好看了一個有趣的新聞[1]提到「 面試官問 3, 4, 5 組成最大數字是多少? 博士神回答妙錄取 」,結果答案是「5的43次方 5 43 = 1.136 ∗ 10 30 」,當然這是不用計算機的情況下最快的反...
沒有留言:
張貼留言