검색 상세

시각 패턴 발견을 위한 비교사 특징 그룹화 : Unsupervised Feature Grouping for Visual Pattern Discovery

  • 발행기관 서강대학교 영상대학원
  • 지도교수 이상욱
  • 발행년도 2008
  • 학위수여년월 2008. 8
  • 학위명 석사
  • 학과 및 전공 영상대학원
  • 식별자(기타) 000000108557
  • 본문언어 한국어

목차

본 논문에서는 영상 내용에 관한 사전 지식이 없이 반복적으로 드러나는 영상 영역(시각 패턴)을 온라인상에서 발견해내는 새로운 방법을 제시한다. 시각 패턴은 영상의 어느 영상 영역에서든 발견될 수 있기 때문에 요구되는 검색 및 저장 공간이 크다. 더욱, 대응하는 영상 영역이 시점, 조명 등의 변화로 변환이 되기 때문에 시각 패턴을 발견해내는 것은 어려운 문제이다. 이 문제를 해결하기 위하여 우리는 두 어파인 불변 특징(affine invariant features)을 차례로 사용한다. 먼저 한 영상으로부터 추출된 포인트(와 같은) 특징 집합을 선형 시간 복잡도를 가지는 색인화 기법을 통해 데이터베이스의 포인트 특징 집합과 정합을 수행한다. 얻어진 포인트 (특징) 매치들로부터 라인(과 같은) 특징과, 라인 (특징) 매치를 형성하고, 그 라인 매치에 두 제약: 공간(spatial), 외양(appearance)을 부여한다. 남겨진 연결된 포인트 매치들은 그룹화되어 한 잠재적인 시각 패턴을 이룬다. 마지막 단계로서, 각 특징 (매치) 그룹에 위상(topology) 제약을 부여하여 그 제약을 위배하는 낮은 균질성의 그룹 및 매치들은 제거한다. 제안하는 방법의 효율성 및 신뢰성을 두 데이터 집합: 칼텍의 배경, 옥스퍼드를 통해 입증해 보인다.

more

목차

This paper presents a novel method to discovery recurring image regions, visual patterns with no prior knowledge about image contents on online. Since visual patterns can be discovered on any image regions, required search and storage spaces are certainly enormous. Moreover, since corresponding image regions can be transformed by viewpoint, illumination changes, discovering visual patterns is a non-trivial problem. In order to alleviate the problem we employ two affine invariant features in succession. First of all, the extracted point(-like) feature set from an image is matched to the database point feature set through an indexing technique having linear-time complexity, and form tentative point (feature) matches. From those matches, we generate line(-like) features and tentative line (feature) matches, and impose two constraints: spatial, appearance on the line matches. Survived connected point matches are grouped to be a potential visual pattern. As a final step, we impose a topology constraint to each feature (match) group, and remove low homogeneity groups and matches that are disobeying the constraint. We demonstrate the efficiency and reliability of the proposed method through two datasets: Caltech’s background and Oxford.

more