검색 상세

라이더-카메라 환경에서 이동 물체 검출을 위한 3차원 움직임 융합 방법

A 3D motion fusion method for moving object detection on LIDAR-camera setup

초록/요약

본 논문에서는 라이더-카메라 환경에서 이동 물체를 검출하기 위해 라이더로 측정되는 3차원 점들의 움직임을 추정하는 방법을 제안한다. 물체 검출을 위한 기존 라이더-카메라 환경에서의 방법들은 라이더를 이용하여 검출 후보들을 정한 후 3차원 좌표 상에서나 영상 내에서의 물체의 위치 변화에 따라 운동 상태를 정의한다. 하지만 검출 목표 물체가 다른 대상과 근접하게 위치하여 각각의 물체를 구성하는 점들이 하나의 물체로 군집화 되면 잘못된 움직임이 추정된다. 또한 카메라를 이용한 이동 물체 검출의 경우 배경과 이동 물체가 구분되지 않는 경우 이동물체 검출 성능이 떨어지는 단점이 있다. 제안하는 방법에서는 이동 물체 검출을 위해 라이더로 얻은 3차원 점들의 군집화를 기반으로한 움직임과 카메라 영상에서의 특징점 추적을 기반으로한 움직임을 추정한다. 군집화를 이용하여 움직임을 추정하는 것은 카메라 영상에서 배경과 구분되지 않는 이동 물체를 검출하게 해주며 영상 특징점 추적으로 구한 움직임은 정지 물체와 근접하게 위치한 이동 물체를 검출할 수 있게 해준다. 그리고 근접한 위치에 존재하는 점들은 비슷한 움직임을 가진다는 가정을 사용한다. 각 점의 두 가지 추정 움직임들 중 주변 점들에 적용했을 때 다음 프레임의 점들과 대응하는 정도를 계산한다. 다음 프레임 점들과의 대응 정도가 더 높은 움직임을 더 정확한 움직임을 선택하는 것으로 두 움직임을 융합한다. 또한 다음 프레임의 점들에게 현재 운동 상태에 대한 정보를 전달하여 간헐적으로 발생하는 오검출을 줄인다. 제안한 방법의 타당성은 두 움직임의 효과를 비교하고 상황에 따라 선택되는 움직임을 확인하는 실험으로 검증하였다.

more

초록/요약

In this thesis, we propose a 3D motion fusion method for moving object detection on LIDAR-Camera setup. Traditional object detection methods on LIDAR-camera setup determine object candidates using LIDAR, and the moving status is defined according to the position of the object in 3D coordinates or in the image. However, when the target object is located close to other objects and the points constituting other objects are clustered into one object, erroneous motion is estimated. Moving object detection method using camera has low performance when the backgrounds and moving objects are not distinguished. The proposed method estimates two motions, based on the clustering lidar 3D points and feature point tracking in the camera image for moving object detection. The motion estimation using clustering 3D points enables to detect the moving object not distinguished from the background in camera image, and using feature point tracking helps to detect the moving object located close to static objects. We use the assumption that points in close would have similar motions. When two estimated motions of each point are applied to the surrounding points, the correspondence with the points of the next frame is calculated. We fuse two motions by selecting more accurate motion with higher correspondence with next frame points. And the current moving status of each points is transfered to the points of the next frame to reduce intermittent false detection. The validity of the proposed method is evaluated by comparing the effects of the motions and confirming the selected motions according to the situation.

more