DOI QR코드

DOI QR Code

High accuracy map matching method using monocular cameras and low-end GPS-IMU systems

단안 카메라와 저정밀 GPS-IMU 신호를 융합한 맵매칭 방법

  • Received : 2018.03.16
  • Accepted : 2018.04.06
  • Published : 2018.04.30

Abstract

This paper presents a new method to estimate the pose of a moving object accurately using a monocular camera and a low-end GPS+IMU sensor system. For this goal, we adopted a deep neural network for the semantic segmentation of input images and compared the results with a semantic map of a neighborhood. In this map matching, we use weight tables to deal with label inconsistency effectively. Signals from a low-end GPS+IMU sensor system are used to limit search spaces and minimize the proposed function. For the evaluation, we added noise to the signals from a high-end GPS-IMU system. The results show that the pose can be recovered from the noisy signals. We also show that the proposed method is effective in handling non-open-sky situations.

본 논문에서는 단안 카메라와 비교적 오차가 큰 GPS-IMU 센서를 이용하여 이동체의 정확한 포즈를 예측하는 고정밀 맵매칭 방법을 제안한다. 제안하는 방법은 카메라로부터 입력 받은 영상을 딥뉴럴 네트워크를 이용하여 의미상으로 분할한 결과와 시맨틱 지도 정보를 비교함으로써 달성된다. 카메라로부터 입력 받은 주행 영상은 시맨틱 분할 알고리즘을 통해서 두 개의 클래스로 분할되며, 시맨틱 지도 정보와 가능한 레이블 페어에 대해 설정된 가중치에 따라 비교 정렬함으로써 현재 이동체의 정확한 포즈를 예측할 수 있도록 한다. 이 과정에서 비교적 오차가 큰 GPS-IMU 센서의 신호는 해 공간의 범위를 효과적으로 줄여준다. 본 논문은 비교적 저렴한 센서를 이용하여 증강현실 및 자율주행 등에 필요한 고정밀 맵매칭이 가능함을 보여준다. 보정 전후의 차량 경로를 지도에 비교 도시하고 시맨틱 지도를 현재 입력 영상에 오버레이 하여 제안한 방법의 효과를 입증하였다. 또한 non-open-sky 환경과 같은 GPS-IMU 수신이 어려운 환경에서도 성능 개선이 있음을 확인하였다.

Keywords

References

  1. M. Limmer, J. Forster, D. Baudach, F. Schüle, R. Schweiger and H. P. A. Lensch, "Robust Deep-Learning-Based Road-Prediction for Augmented Reality Navigation Systems at Night," 2016 IEEE 19th International Conference on Intelligent Transportation Systems (ITSC), pp. 1888-1895, 2016. DOI: https://doi.org/10.1109/ITSC.2016.7795862
  2. M. Szczot, M. Serfling, O. Löhlein, F. Schüle, M. Konrad and K. Dietmayer, "Global positioning using a digital map and an imaging radar sensor," 2010 IEEE Intelligent Vehicles Symposium, pp. 406-411, 2010. DOI: https://doi.org/10.1109/IVS.2010.5548043
  3. M. Teichmann, M. Weber, J. Zoellner, R. Cipolla and R. Urtasun, "MultiNet: Real-time Joint Semantic Reasoning for Autonomous Driving," arXiv preprint arXiv:1612.07695, 2016.
  4. A. Geiger, P. Lenz and R. Urtasun, "Are we ready for Autonomous Driving? The KITTI Vision Benchmark Suite," 2012 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 3354-3361, 2012. DOI: https://doi.org/10.1109/CVPR.2012.6248074
  5. G. Máttyus, S. Wang, S. Fidler and R. Urtasun, "HD Maps: Fine-grained Road Segmentation by Parsing Ground and Aerial Images," 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 3611-3619, 2016. DOI: https://doi.org/10.1109/CVPR.2016.393