來源:映維網 作者 夢秋
SLAM (Simultaneous Localization and Mapping)是指即時定位與地圖構建或同時定位與映射。就本質而言,SLAM是一種利用傳感器饋送和/或IMU讀數來構建未知環境的映射結構,并實時確定設備位置和方向的過程。
SLAM可以回答兩個非常重要的問題:我在哪兒(定位)?我周圍有什么(三維場景重建)?對于需要合理地將虛擬對象疊加到現實世界的增強現實而言,這種技術顯然非常合適。所以,諸如HoloLens,Magic Leap和影創等AR頭顯都無一例外地采用了SLAM技術。
延伸閱讀:什么是SLAM,為什么SLAM如此重要
根據美國專利商標局日前公布的一份專利申請,蘋果同樣在積極地為未來的增強現實設備研發SLAM技術。
在名為“Multiple User Simultaneous Localization And Mapping (多人同時定位與映射)”的專利申請中,蘋果主要描述了針對增強現實的多人SLAM技術。
這家公司在專利背景中寫道:“目前市場存在各種針對單名用戶或單臺設備的SLAM技術。但行業同樣需要允許多名用戶在物理環境中共享虛擬對象的SLAM技術。”
具體而言,由于物理空間的追蹤和定位不一致,今天的AR體驗大多局限于單名用戶,所以如何為AR帶來社交性和協作性是一個挑戰。例如,如果一名用戶可以在自己的AR視圖中將一個虛擬花瓶放到物理桌面,但其他用戶的AR視圖可能會顯示成虛擬花瓶漂浮在半空中。
為了支持多人AR體驗,設備必須能夠獲取關于環境的一致映射和其他設備的一致定位。
在下面的蘋果專利圖中,兩名用戶正在同時感知同一個計算機生成現實環境。
為了獲得一致的AR體驗,用戶#A手持的設備#400A可以根據由第一圖像傳感器捕獲的物理環境圖像來獲得第一組關鍵幀,并執行SLAM以生成定義第一組關鍵幀的關鍵幀相對位置的映射;用戶#B手持的設備#400B可以根據由第二圖像傳感器捕獲的物理環境圖像來獲得第二組關鍵幀,并生成定義第二組關鍵幀的關鍵幀相對位置的映射。
在一個實施例中,設備#400A和設備#400B可以結合諸如運動傳感器、深度傳感器和方位傳感器等附加傳感器的數據和相應的傳感器參數來執行SLAM。
接下來,設備#400A接收第二組關鍵幀,并將接收到的關鍵幀定位到映射。設備#400B接收第一組關鍵幀,并將接收到的關鍵幀定位到映射。
在一個實現中,設備#400A和設備#400B各自根據一致的算法合并來自對方的物理環境映射,從而提供一致的映射結果。蘋果特別指出,通過由用戶設備本地維持和合并關于物理環境的映射,這消除了對中央用戶設備的需要,同時允許任何用戶設備加入或離開多用戶SLAM環境。
這時,如果用戶#B在增強現實體驗中添加了一個虛擬對象(如虛擬花瓶),設備#400B將相應地根據視圖生成一個錨定。其中,錨定定義虛擬對象相對于關鍵幀的位置。
用戶#A手持的設備#400A可以接收#400B的錨定,然后根據早前合并生成的一致映射及接收的錨定顯示包含所述虛擬對象(如虛擬花瓶)的計算機生成現實環境。
不僅只是這樣,設備#400A同時可以根據設備的方向以符合用戶#A視角感知的效果呈現由用戶#B添加的虛擬對象(如虛擬花瓶)。
蘋果在一個示例中寫道:“所述方法基于錨點和映射在同一個位置顯示包括虛擬對象的計算機生成現實環境。通過所述方法,第一電子設備和第二電子設備的計算機生成現實體驗可以更加一致,因為虛擬對象是相對于相同的關鍵幀定位,并且在每臺設備的各自映射中包括或以其他方式使用相同的關鍵幀。例如,在第二電子設備視圖中放置的虛擬花瓶同樣會放置在第一電子設備的視圖中,而且虛擬花瓶可以以符合用戶視角感知的效果呈現。”
這家公司最后總結道:“將相同的關鍵幀和錨點合并到同一映射中有助于確保花瓶在兩個計算機生成現實體驗中實現更為一致的定位。”
相關專利:Apple Patent | Multiple User Simultaneous Localization And Mapping (Slam)
名為“Multiple User Simultaneous Localization And Mapping (多人同時定位與映射)”的蘋果專利申請最初在2020年7月提交,并在日前由美國專利商標局公布。需要注意的是,這只是一份專利,尚不確定蘋果是否會或于合適商業化所述的發明技術。
原文鏈接:https://yivian.com/news/79711.html