검색 상세

모바일 플랫폼 상에서의 실시간 시각적 주행 궤적 추정 시스템 구축

Construction of Real-time Visual Odometry System on Mobile Platforms

초록/요약

모바일 기기의 성능이 급격하게 발전하여 최신 스마트폰에서 구현 가능한 기능이 점점 많아지고 있는 요즘, AR관련 응용 프로그램의 수요와 맞물려 모바일 플랫폼 상에서의 주행 궤적 추정(Visual Odometry)의 중요성이 점점 높아지고 있다. 특히 최근에는 Lenovo Phab2 Pro, ASUS Zenfone 3와 같이 Google에서 개발한 Tango API가 탑재된 모바일 기기가 시장에 출시되고 해당 API를 오픈소스로 공개하면서 모바일 기기 상에서의 주행 궤적 추정 시스템 개발이 용이해졌으며 그에 맞춰서 다수의 응용 프로그램이 개발 및 출시되고 있다. 하지만 모바일 플랫폼의 성능이 PC에 비해서는 상대적으로 많이 열악하기 때문에 기존에 개발되었던 PC 플랫폼 상에서의 시스템을 그대로 모바일 플랫폼에 포팅하기에는 한계가 있다. 본 논문에서는 기존에 제시되었던 깊이 이미지 필터링 방법과 시각적 주행 궤적 방법을 바탕으로 모바일 플랫폼을 위한 실시간 RGB-D 시각 주행 궤적 시스템을 제시한다. 모바일 플랫폼에서 지원하는 RGB-D 카메라의 성능을 보완하기 위해 다수의 깊이 이미지 필터링을 진행하고 주행 궤적 추정의 정밀도를 유지하기 위해 확률론적 모델이 추가된 직접 방법으로 추정 엔진을 구성하였다. 또한 프레임-대-모델이 아닌 프레임-대-프레임 방식에 적응적 오차 수정 방법을 추가하는 것으로 정밀도를 손실하지 않으면서 공간 및 시간복잡도를 최소화하였다. 이렇게 구성된 시스템을 파이프라인 구조로 구성하고 각 부분을 GPU 및 멀티스레딩으로 가속하였다. 결과적으로 PC 환경을 위해 제시된 시각적 주행 궤적 추정 방법을 정밀도 손상 없이 모바일에서 구현할 수 있었고 모바일 플랫폼에서 지원하는 해상도의 RGB-D 이미지 입력은 실시간으로 처리하는 성능을 보였다.

more

초록/요약

With a recent, quantum leap forward in terms of the functions of mobile devices as well as an increasing number of new functions implemented on smart phones, the importance of visual odometry on mobile platforms are expected to be strengthened in accordance with demands on AR related application programs. Lately, similar to Lenovo Phab2 Pro and ASUS Zenfone 3, mobile devices installed with Tango API invented by Google have been introduced to the market with the corresponding API released open source which has facilitated the development of visual odometry systems on mobile devices, and multiple application programs are being developed and marketed according to this transition. That being said, porting a system on a PC platform to a mobile platform is limited as the performance level on mobile platforms is relatively far more inferior to that on PCs. The thesis suggests a real-time RGB-D visual odometry system for the mobile platform based on the pre-existing depth image filtering methods and visual odometry method. In order to compensate the performance of the RGB-D camera, depth image filtering is conducted multiple times and a deduction engine with the dense method to which a probabilistic model is added is organized to maintain the precision of visual odometry. In addition, the space complexity is minimized by adding an adaptive error correction method to the frame-to-frame method, rather than the frame-to-model method, without losing precision. The system created this way is modified into a pipeline structure and is accelerated through GPU as well as multithreading. As a result, not only can the visual odometry method developed for PC environment be implemented on mobile devices without any detrimental effect on precision, but also RGB-D image input supported by mobile platforms are able to be processed real-time.

more