SLAM論文後記

經過為期前後一年的論文研究

其實跳這坑是老師推的

但SLAM卻在VR科技爆發之後

成了百家爭鳴之技術,名聲壓過它的師父SFM

整個過程可說是囫圇吞棗...但究竟要使用哪個工具、方法、立論跟貢獻在哪

真特別要感謝google、博客主、國外各種論壇網友的心得意見

否則動機目的就被口委打趴了吧...

廢話不多說

淺談:

SLAM這個技術,在國外、中國大陸的發展遠比台灣快速,
且討論相當熱絡,在台灣只有需要用到的大廠(HTC的VR、台達電...),才會投入。
所以網路可以找到的文獻、經驗、討論,幾乎都是外國或中國大陸。
也可能是軟體生態上的差別,國外公司多,投入相對多人才進入此領域研究,
想做創新的發展;而台灣除了研究單位外,較少在此技術上著墨,
 偏向希望有即刻成果的應用領域。
 
SLAM發展

而他們為何要鑽研SLAM這技術?
甚至還有SLAM的年會、研討會、交流的大小聚會,
其一是SLAM的應用可以非常廣泛,例如自動駕駛、到VR、MR,
都還是許多大廠爭相跳進來做的。

其二是SLAM從硬體、資料格式、到定位方法、到地圖、最後到地圖要怎麼用,
涵蓋領域實在太廣泛了,
每一個部分都值得跳進去做改善,所以現今SLAM仍是非常不成熟的技術。

從2010年Kinect V1深度攝影機開始慢慢普及後,2013年RGBD-SLAM被提出,
到去年(2016)為止RGBD-SLAM出了第二代,而且一路以來都是OpenSource。


另外跟著特徵演算的發展,ORB-SLAM出現了,
而直至今年初(2017),同樣偏向了RGBD做為輸入,
同樣地,一路以來都是OpenSource,它還展示了簡單的VR應用。
相當值得參考,硬體上沒有限定,
它的RGBD是用既有的開放資料。

同樣在方法上做修改,LSD-SLAM利用光度校正的方法(數學很難!),
不使用特徵點! 只用彩色圖(全像素點),
宣稱他們的系統適用於大場景、無特徵環境,
同樣地,LSD-SLAM至今也是OpenSource。

另外微軟以近10萬的成本價,開發了Hololens,在展示影片中,特地炫耀了SLAM的功能,
因微軟夾帶著Kinect深度鏡頭的經驗,並量身打造了硬體、韌體、軟體,才能創造全息眼鏡。


而到處可見的深度學習,有沒有發展到SLAM呢,當然有: http://ai.easyapi.com/blog/view/1199
---
 
類SLAM的技術!?
 
KinectFusion

這個技術從影片看似精確度很高,但是是夭折的專案,
它的資源消耗過大,不利於長遠發展,因為它是直接對空間做切割雕塑,
所以內存、計算所佔過多,運行越久會越慢,且依然有場景丟失問題。

SFM

這個可以說是SLAM的前身,即是只用圖片產生場景結構的點雲,
但是如今SLAM比較多人討論,因為SLAM的初始概念,適用情境更廣,
SLAM除了有地圖外,還有"定位",定位這個功能在即時運行上太重要了,
而SFM初衷上是環物(建築)的使用,所以現在大家都在SLAM上鑽研。
SLAM是偷了SFM技術,重新包裝後出發,本意不變,路變廣了。
如果說新的SFM系統,宣稱它也可以即時掃描、定位,那便是向SLAM靠攏了...
整體來說,SFM尷尬了,而國內外各個場合,也都是以SLAM一詞為主了。
(詳情可見其他文章內比較。)

---

心得

隨著AR、VR、MR的來勢洶洶

SLAM的價值只升不減

並且實現難度將會越來越低

如今各大科技公司,皆致力在硬體上的提昇

像是深度感測、鏡頭畫素、面板解析度、GPU、CPU...

有了更高速、更精密的數值作為輸入運算

加蘋果提出的ARKit、Google的ARCore、高通的Vuforia





都已經具備了基礎的平面的感知功能、影像辨識、3D重建的功能

這些公司跨足的硬體架構開發能力,加上世界頂尖的軟體工程師

將來逐漸完整到場景感知重建,也是指日可待的事啦

可望以這些工具的API,輕易實現SLAM中的

定位、重建、渲染、辨識、顯示這些功能了

至於裝置呢?

這個更不用擔心了,有鏡頭、螢幕的地方

將會處處皆是AR、MR了!




讓我們期待蘋果ARKit、Google ARCore

世上兩大頂尖軟體公司在AR上的頂尖對決吧!