DOI QR코드

DOI QR Code

Analysis of Level of Difficulty of Fingerprint Database by matching Orientation field

Orientation field의 정합을 이용한 지문영상 DB의 난이도 분석

  • Park Noh-Jun (Graduate School of Information Technology & Telecommunication, Inha University) ;
  • Moon Ji-Hyun (Graduate School of Information Technology & Telecommunication, Inha University) ;
  • Kim Hak-Il (Graduate School of Information Technology & Telecommunication, Inha University)
  • 박노준 (인하대학교 정보통신대학원) ;
  • 문지현 (인하대학교 정보통신대학원) ;
  • 김학일 (인하대학교 정보통신대학원)
  • Published : 2006.08.01

Abstract

This paper proposes a methodology to evaluate the quality and level of difficulty of fingerprint image databases, which leads to objective evaluation for the performance of fingerprint recognition system. Influencing factors to fingerprint matching are defined and the matching performance between two fingerprint images is evaluated using segmentation and orientation filed. In this study, a hierarchical processing method is proposed to measure an orientation field, which is able to improve the matching speed and accuracy. The results of experiments demonstrate that the defined influencing factors can describe the characteristics of fingerprint databases. Level of difficulty for fingerprint databases enables the performance of fingerprint recognition algorithms to be evaluated and compared even with different databases.

본 논문은 지문 인식 알고리즘의 신빙성 있는 성능 평가를 위해 실험에 사용되는 지문 영상 데이터베이스의 특성을 정량화하는 방법과 지문 영상 데이터베이스들의 난이도를 측정하는 방법을 제안하는 것을 목적으로 한다. 이를 위해 지문 영상 정합 시에 영향을 미치는 요소들을 정의하였으며, 두 지문 영상의 정합을 minutiae 기반이 아닌 orientation field을 사용하여 요소들을 평가한다. Orientation filed는 기존의 orientation 방법을 이용하되 계층적으로 측정함으로써 정합시의 속도와 정확성을 개선하였다. 실험 결과, 두 영상을 정합하여 얻어진 각각의 요소들의 측정수치는 데이터베이스들의 특성을 보여준다. 데이터베이스 난이도의 측정은 지문 인식 알고리즘들의 성능을 객관적이고 정량적으로 비교할 수 있게 해준다.

Keywords

Ⅰ . 서론

현재의 생체 인식 기술은 기존의 인증 수단들을 대체할 수 있을 만큼의 인증 성능을 보여주고 있다고 알려져 있다. 또한 국제적인 대회들(지문 인식의 경우 Fingerprint Verification Competition(이하 Fvc)(「3), 얼굴 인식의 경우 Face Recognition Vendor Test⑷)을 통해 전 세계적으로 개발이 진 행 중인 인식 알고리즘들의 성능을 평가해 공시하고 있는데, 그 결과에서 보면 매년 알고리즘들의 인식 성능이 좋아지고 있는 것을 확인할 수 있다. 그러나 문제는 이와 같은 평가 결과가 알고리즘 간의 상대 적인 비교가 어렵다는데 있다. 왜냐하면, 평가 대상 이 되는 생체 정보 데이터베이스들에 대한 분석이 이루어져 있지 않아 데이터베이스 자체의 특성이 성능 평가에 미치는 영향을 파악할 수 없기 때문이 다. 인식 알고리즘의 올바른 평가를 위해서는 직접 적인 평가 대상이 되는 생체 정보 데이터베이스에 대한 평가가 선행되어야한다. 이는 비교하려는 알고 리즘들의 성능 평가 결과에 신뢰성을 더하게 되며, 간접적인 방법으로의 평가 결과 예측을 가능하게 한다15-8)

본 연구의 목적은 지문 데이터베이스의 난이도를 측정하는 방법을 제안하는 것이다. 이를 위해 지문 영상을 정합할 때 영향을 미치는 요소들을 정의하고, 그들을 정량적으로 측정한 후, 데이터베이스를 이루 고 있는 모든 지문 영상들에 대해 그 요소들을 합하 여 지문 데이터베이스의 난이로도 정의한다. 난이도 에 영향을 미치는 요소들로서, 지문 데이터베이스를 이루고 있는 모든 동일지문 쌍(Genuine pair)에 대 흐].여, overlap area, translational difference, rotational difference 그리고 image quality 분 포를 정의하며, segmentation과 hierarchical orientation field의 정합을 통해 각각의 영향요소 를 자동으로 측정한다. 본 연구에서는 지문 데이터 베이스의 난이도가 기존의 minutiae 기반의 지문 인식 알고리즘들의 정합 성능에 독립적이도록 하기 위하여 orientation field를 정합하는 방법을 사용 한다.

그림 1은 데이터베이스 난이도의 측정 및 평가 절 차를 보여준다. 각각의 지문인식의 영향요소들을 정 량적으로 평가한 후, 이들을 융합하여 지문 데이터베 이스의 난이도를 평가한다. 그러나 본 논문에서는 fusion의 전 단계인 영향요소들을 측정하여 각각의 데이터베이스들을 상대적으로 비교하는 단계까지 설 명한다. 지문 데이터베이스의 난이도는 데이터베이스 들 간의 특성을 분석하여 표현할 수 있는 자료가 될 것이며, 인식 알고리즘의 성능을 정확히 이해할 수 있도록 해준다.

그림 1. 지문 데이터베이스의 난이도 평가 절차

본 논문의 2장에서는 사용된 알고리즘 즉, 지문영상의 segmentation과 orientation field 및 matching에 대해 설명하고, 3장에서는 데이터베이 스의 난이도에 영향을 미치는 요소들에 대해 정의하 였다. 4장에서 실험 방법 및 결과에 대하여 정리한 다. 마지막으로 실험 결과에 대한 분석 결과를 토대 로 본 연구의 의의, 향후 연구 과제 그리고 결론을 정리한다.

Ⅱ. Orientation field 정합 알고리즘

본 연구에서는 지문 데이터베이스의 난이도가 기존 의 minutiae 기반의 지문인식 알고리즘들의 정합 성 능에 독립적이도록 하기 위하여 orientation field를 정합하는 방법을 사용한다. 그러나 orientation field를 이용한 정합에서도 어려운 점들이 있는데. 정확한 전경 분리, orientation field 계산 그리고 정합에 많이 시간 소요 등을 들 수 있다. 이와 같은 문제들을 해결하기 위한 방법으로 전경에 대해서만 방향성을 측정하였고, 계층적 방향성 방법을 사용하 여 orientation field의 정확성과 정합 시 시간을 줄일 수 있었다.

2.1 Segmentation

Segmentation 이란 지문 영상에서 지문이 있는 전경부분과 지문이 없는 배경부분으로 나누어 표현하 는 것을 말하며 영상 전체가 아닌 전경부분에 대해서 만 사용할 경우 알고리즘의 처리 속도를 높일 수 있 다. Segmentation은 그림 2와 같이 진행되며, 입 력 영상에서 각각의 국부 영역에 대해 variance ratio 와 modified coherence 를 측정한 후, fusion 및 morphology# 통해 영상에서의 전경과 배경을 구분하였다

그림 2. Segmentation algorithm의 진행순서

Variance ratio는 전체 지문의 화소 값들의 분 산과 비교하여 각 국부 영역의 분산의 크기를 나타냄 으로써, 해당 영역 내의 지문의 융선들의 화소 값 대 비(Contrast)를 측정한다. 식(1)에서 爲은 전체 영상의 variance, 场々은 한 블록에서의 variance 를 나타내고, 지문의 전경에 해당하는 영역에서는 융 선과 골이 존재함으로 而I이 증가하여, , 가 커지 게 되며, 배경 영역에서는 VaTf6] 0에 가까우므로 Rv 역시 0에 가깝게 된다.

#(1)

Modified coherence는 융선의 방향성의 집중도 를 측정하는 것으로서 융선의 방향성이 좋을수록 집 중도는 높게 측정되며, 배경보다 전경에서 수치가 높 게 나타난다. 식(2)에서 入°는 모든 블록들 중에 人max + 人min 이 가장 큰 수치, 知猝 와入nin 은 eiSen~ value로 정의된다. 각각의 블록에서 coherence를 측정하며, 만약에 임계치보다 큰 경우에는 전경, 작 을 경우에는 배경이라 할 수 있다.

#(2)

위에서 측정된 수치를 이용하여 segmentation 의 수치를 아래의 “가중치 합” 식 (3)을 통해 구할 수 있으며 측정된 수치를 통해 해당 블록을 전경 또는 배경으로 구분할 수 있다.

#(3)

여기서 3= R, 이7;頒 = (RgGAj71 로정의되며, 가중치 a。과 的은 % + 四 = 1로 정의된다.

위에서 구해진 segmentation 값인 가 임계치 보다 크면 전경, 작으면 배경으로 구분하였다. 마지 막으로 노이즈를 제거흐!기.위해서 segmentation 영상에 morphology 방법 가운데 하나인 opening 을 적용한 후에 closing을 사용하여 영상을 처리하 였다. 이 방법을 사용한 이유는 배경부분의 노이즈를 전경으로 처리할 수 있으므로 적은 크기의 전경부분 및 노이즈를 제거하는데 효과적이기 때문이다. 본 실 험에서는 임계치를 35로 정하였는데 그 이유는 실험 을 통해 얻어진 segmentation 값을 비교한 결과, 임계치인 35값을 기준으로 전경과 배경이 정확히 구 분되었기 때문이다.

2.2 Orientation

Orientation field란 지문 영상에서의 융선의 흐 름 방향에 따라 화소 또는 블록으로 표현한 것을 말 하며, 방향성을 구하여 지문에서 코어와 비슷한 모양 의 패턴을 찾을 수 있다. Orientation을 구하기 위 해 사용된 방법은 여러 방법들 중에 Jain。"의 orientation 방법을 사용하였으며, 본 논문에서는 방향성을 구한 후에 계층적으로 1 화소, 2x2 블록, 4x4 블록, 8x8 블록 그리고 16x16 블록까지 진행 했으며, mat산ling은 그와 반대로 진행하여 overlap area를 구하였으며, Orientation을 구하는 방법은 아래와 같다'⑵.

1) 각각의 화소인(句顶)에 대해서 sobel mask를 이용 하여 gradients 毎(4成)와 勾(如顶)를 계산 한다.

2) 식 (4-6)를 이용하여 화소(况/)에서 각각의 블 록 중심의 local orientation을 계산한다. 여기서 。(由)는 블록 중심의 화소(第)의 방향성을 계 산한 것이다.

#(4)

#(5)

#(6)

3) Low-pass 필터링을 하기 위해서 방향성을 식 (7-8)를 이용하여 continuous vector field로 변환하는 것이 필요하다. 여기서 生와 乳는 X 와 y의 vector field이다.

#

#

4) Low-pass filtering은 식(9T0)로 측정되며, W 는 two-dimensional low-pass filter■로 정의된 다. W(期;)는 3><3 average 필터를 나 타낸다.

#(9)

#(10)

5)(i, j)의 방향성을 식(11)과 같이 orientation을 구 한다.

#(id

2.3 계층적 방향성

계층적 방향성은 위에서 측정된 지문 영상에서의 1 화소의 방향성을 통해 그림 3과 같이 진행하였다. 그림 3에서 보면 1 화소에서 측정한 방향을 가지고 4개의 방향의 평균을 구하여 2x2 블록의 방향성을 측정 하였고, 2x2 블록에서도 4개의 방향성을 가지 고 평균을 측정하여 4x4 블록, 8><8 블록 그리고 16x16 블록까지 진행하였다. 단, 4개의 방향성 중에 하나의 배경이라도 들어갈 경우는 모두 배경처리 하 였다. 그 결과로 얻어진 16x16 블록에서 1 화소까 지의 방향성으로 정합을 수행할 수 있었다. 정합 시 에는 방향성과 반대로 16x16 블록에서 정합을 하여 가장 잘 겹치는 한 블록을 찾고, 찾아낸 블록을 중심 으로 8x8 블록에서 가장 잘 겹치는 블록을 찾아 점 차적으로 작은 위치에서의 가장 잘 겹치는 화소의 위 치를 찾아냈다.

그림 3. 정합의 진행 과정

이 방법은 가장 작은 단위의 화소부터 진행되어 기존의 orientation 방법에서 16^16 블록의 방향 성을 구하는 것 보다 더 정확할 뿐만 아니라 mat- ching시에도 16x16 블록일 때 찾아낸 위치를 토대 로 계층적으로 진행하여 1 화소 일 때의 위치를 찾아 내기 때문에 정확성 및 빠른 속도를 갖는 것이 장점 이다. 계층적 방향성을 측정하기 위해서 그림 4와 같 이 진행하였으며, 결과적으로 1 화소에서의 위치를 찾았다. 먼저 영상에서의 전경과 배경을 구분하고, 전경부분에 대해서만 1 화소의 방향성을 구한다. 이 후로 계층적으로 16x16 블록까지 진행하고, 정합은 반대로 16x16 블록에서 1 화소까지 진행하여 정확성 을 높일 수 있었다. 두 영상에서 찾은 위치를 서로 겹쳤을 때 translational difference, rotational difference 그리고 overlap area을 구할 수 있었다.

그림 4. 계층적 방향성

2.4 Cost function

정합의 정도를 측정하기 위하여 cost function을 정의한다. 계층적 방향성 정합에 있어서, cost function은 기준이 되는 영상의 전경과 비교가 되는 영상의 전경 사이에 각 블록의 방향성 차이의 평균을 구한 값이며, cost function의 값이 최소일 때 두 영상 사이의 translation과 rotation의 정도를 찾 아낸다두 영상에서 일치하는 블록들이 각각의 방향 값으로 a와 0를 갖는다고 할 때, 두 영상의 블 록 사이의 방향 차이는 식(12)와 같이 정의되며, 구 하는 식은 (13)과 같다. 식에서 %는 기준이 되는 영상인 enrolled sample 영상의 방향성을 나타내 는 것이며, Cof는 비교가 되는 영상인 tested sample 영상을 enrolled sample 영상의 방향성 차이만큼 이동 시켰을 때의 방향성을 나타낸다. 그리 고 S는 %;와와(爲의 overlap 된 블록의 크기를 나타내고 있으며, "는 두 영상이 overlap 되었을 때 방향성의 차이가 가장 작은 값을 나타낸다.

#(12)

#(13)

Ⅲ. 지문 인식 알고리즘 성능의 영향 요소

이 장에서는 translational difference, rota­ tional difference, overlap area 그리고 image quality 분포가 지문 데이터베이스의 난이도에 영향 을 미치는 요소들로 선정된 이유에 대해 설명하고 그 개념을 정의한다. 그리고 각각의 영향요소들의 측정 방법에 대해 소개한다.

3.1 Translational difference

Translational difference란 동일한 두 지문 영 상에 대해 비교를 할 때 enrolled sample 영상과 tested sample 영상의 동일한 부분에 대하여 가로 와 세로 방향으로 얼마만큼의 위치 변화가 발생했는지 를 측정하는 것이다. 두 영상사이에 translational difference가 클수록 두 영상간의 일치호}는 부분이 적어질 수 있다. 예를 들어, 두 영상사이에 동일한 위치를 찾았을 때 그 위치가 하나는 좌 - 상단이고 다 른 하나는 우 , 하단이라고 한다면 이는 겹치는 부분 의 양도 상당히 적어 동일 지문 쌍으로 판단하기 힘 들 것이다. 데이터베이스에서 위치의 변화량이 큰 영 상의 쌍이 많을수록 데이터베이스의 난이도는 높아 질것이다.

일반적으로 변화량을 정의할 때 공통 특징 점으로 코어나 델타와 같은 특이점들이 많이 사용된다. 그러 나 모든 영상에 코어나 델타가 있는 것은 아니다. 이 러한 점을 보안하기 위해서 cost function을 이용 하여 두 영상에서의 공통적인 점을 찾았다. 변화량을 즉정하기 위해서 두 영상에서 동일한 위치를 찾아 겹 쳐 놓았을 때 각각의 영상들의 좌 . 상단의 위치를 비 교하여 얼마만큼의 변화가 있었는지 측정한다. 측정 의 기준이 되는 특징량의 정보는 식 (14)과 같이 표 현되는데, 식 (14)에서의 X와 y를 결정하는 기준은 각 해당 영상의 좌 - 상단 화소가 된다. 이 때, 난이 도를 평가하기 위해서 사용되는 translational difference T는 식 (15)과 같이 표현된다. 7에서의 厶X와 厶y는 각각 화소 단위로 표현되며, 경우에 따 라 음의 값을 가질 수 있다. 각각의 데이터베이스의 난이도를 정량적으로 측정하기 위해서 원점을 중심으 로 모든 위치의 거리의 평균을 측정하였다. 그리하여 평균 거리가 가장 적은 데이터베이스일수록 두 영상 사이의 변화량이 가장 적음을 나타냄으로 난이도가 가장 쉽다고 정의하였다.

#(14)

#(15)

3.2 Rotational difference

Rotational difference란 동일한 지문 영상에서 두 영상 간의 회전량의 변화를 측정하는 것을 말하 며, 회전량의 크기는 -180°부터 +18借로 정의하였 다. Enrolled sample 영상을 기준으로 tested sample 영상을 비교했을 때 두 영상 간의 회전량이 클수록 두 영상에서 일치하는 위치를 찾기 어려우며, 서로 다른 지문 영상으로 보일 수도 있다. 위의 항목 과 마찬가지로 데이터베이스 안에 회전량의 차이가 큰 쌍의 영상들이 많다면 그 데이터베이스의 난이도 는 높게 나타날 것이다.

Rotational difference H은 enrolled sample 영상을 기준으로 tested sample 영상의 회전량 변 화를 측정하는 항목이다. 두 영상 간의 H을 측정하 기 위해서는 overlap area를 측정한 후에 각각의 겹치는 영역들의 방향 차이를 식(16)과 같이 측정하 여 그림 5의 히스토그램으로 표현한다. 그림에서 보 듯이 0°와 1°는 차이가 적어 정확한 수치를 측정하기 위해서 식(17)과 같이 moving operator를 사용하 여 R'을 측정하였다. 氏'을 측정하여 그림 5를 스무 딩하게 표현한 후에 가장 큰 값을 갖는 위치에서의 각도를 식 (18) 과 같이 도출하여 rotational differ- ence를 측정하였다. 역시 enrolled sample을 기 준으로 측정하므로 이 값은 경우에 따라 음의 값을 가질 수 있다. 식(17)에서 f는 빈도수를 나타내며, a, 13 그리고 了는 가중치로서 각각 0.1, 0.2, 0.4로 정의한다.

그림 5. Rotational difference

#( 1 6)

#(17)

#(18)

3.3 Overlap area

Overlap area는 두 영상에서 동일한 특징 점 부 분을 같은 방향으로 겹쳐 놓았을 때 두 영상에서 겹 치는 부분의 양을 화소 또는 블록들의 비율로 나타내 는 것이다. Overlap area를 결정하는 것은 융선의 정보를 이용해 그 형태가 최대한 같아지는 영상 조합 을 찾아내는 것에서 시작되며, 이를 위해 지문 융선 의 방향성, 지문 특징점(단점, 분기점 뿐만 아니라 코어나 델타 등도 포함)의 분포 등을 이용할 수 있 다. 두 영상간의 겹치는 영역이 차지하는 비율이 어 느 정도인지를 파악하는 것은 중요하다. 동일한 subject의 두 영상을 비교할 때 영상의 전경부분이 작아 두 영상간의 겹치는 부분이 작거나 겹치는 부분 이 없을 경우 이 쌍의 영상을 다른 영상의 쌍으로 평 가할 수 있기 때문에 overlap area도 난이도에 영 향을 미치는 요소로 선정하였다.

이것은 enrolled sample 영상과 tested sam­ ple 영상의 겹쳐지는 부분의 양을 화소 또는 블록들 의 비율로 나타낸 것이며, 식 (19)과 같이 표현된다. 식(19)에서 P。는 두 영상의 겹치는 부분의 화소 또 는 블록을 나타내며, P亍는 enrolled sample 영상 의 전경 부분의 화소 또는 블록을 나타낸 것이다. 그 림 6은 두 영상에서 일치하는 위치를 찾았을 때 겹쳐 지는 모양을 보여준다.

그림 6. Overlap area

3.4 Image Quality

지문 영상의 품질은 여러 가지 방법으로 측정 또 는 계산될 수 있다. 일반적으로 지문 영상의 품질은 영상을 여러 블록으로 나눈 후 블록 별로 수치를 계 산하는 지역적 품질 측정 방법과 영상 전체에 대해 하나의 수치로 품질을 결정하는 전역적 품질 측정 방법을 이용하여 구해진다. 둘 중 어느 방법을 사용하 든 지문 영상의 품질은 하나의 영상에 대해 하나의 수치로 표현된다. 지문 영상의 품질은 NiST'mJ에서 제공하는 NIST Fingerprint Image Quality (이 하 NFIQ)라는 프로그램을 이용하여 지문 데이터베 이스들의 각각의 영상에 대해 품질을 측정하였고, 그 수치를 그대로 사용하여 image quality분포를 나 타내었다. 그림 7은 NFIQ를 이용하여 얻어진 지문 영상 품질의 5단계를 보여주고 있다. 품질 중에 fair와 poor의 영상이 많으면 방향 및 overlap area를 정 확히 찾을 수 없을 것이고, 품질이 낮은 영상이 많을 경우 지문 데이터베이스의 난이도는 높아 질것이다. 다른 요소들은 두 영상을 이용하여 수치를 측정하 였는데 반해 지문 영상의 품질은 다른 요소들과는 달 리 각각의 영상에 대해 NFIQ를 사용하여 난이도를 측정하였다. 그로인해 측정 방법은 설명하지 않고, 그림 7이 실험 결과라 할 수 있다.

그림 7. 지문 영상 품질의 예

Ⅳ. 실험 결과

본 논문에서는 지문 영상 데이터베이스들의 난이 도를 측정하는 방법을 제안하였다. 이를 위해 위의 장에서 설명한 지문 영상 데이터베이스의 난이도에 영향을 미치는 요소들을 측정한 결과를 보여준다. 이 장에서는 실험을 위해 사용된 데이터베이스들을 소개 하고, 영향요소에 대해 측정하여 얻어진 결과에 대해 분석하고 서술한다.

4.1 데이터베이스

실험을 위한 지문 영상 데이터베이스는 FVC 2000, 2002, 2004의 SFinGe로 생성된 지문 영상 데이터 베이스를 대상으로 하고 있으며, FVC의 Set A 데 이터베이스는 각각 800장으로 이루어져있으며, 실험 을 위해 동일인의 지문 영상들을 이용하여 genuine 정합을 수행하여 데이터베이스 당 총 2800 쌍에 대 해서 실험을 수행하였다. 그림 8은 실험에 사용된 FVC의 SFinGe 영상을 보여주고 있다. Enrolled sample 영상과 tested sample 영상의 쌍은 동일 지문 쌍에서 생성된 정보만으로 이루어졌다.

그림 8. 실험에 사용된 SFinGe 데이터베이스

4.2 Segmentation과 hierarchical orientation field의 중간 결과

그림 9와 그림 10은 각각 segmentation과 계층 적 orientation field의 중간 결과를 보여준다. Segmentation은 4x4 블록으로 나타내었고, 계층 적 방향성은 전경 부분에 대해서만 1 화소부터 16x16 블록으로 나타내었다. 그림 9에서 오른쪽 영 상은 segmentation 처리가 되어 나온 영상이며, 붉은색 부분은 배경, 녹색과 노란색 부분은 전경을 뜻하며, segmentation 수치에 따라 색으로 표현되 었다. 그림 10은 위의 orientation 진행 과정에 따 라 차레로 1 화소부터 16x16 블록까지의 계층적 방 향성을 중간 결과를 보여준 것이다. 방향성의 각도가 0。에 가까울수록 빨간색, 180。에 가까울수록 파란색 으로 표현된다.

그림 9. Segmentation 중간 결과

<그림 10> Hierarchical orientation 중간 결과

4.3 평가 항목의 결과

그림 11은 위의 측정 과정에 의해서 구해진 결과 를 보여주는 것이다. (a)는 eni■이led sample 영 상, (b)는 tested sample 영상을 나타내고 (c)는 얻어진 translation과 rotation을 이용한 결과이 다. Enrolled sample 영상을 기준으로 tested sample 영상을 비교했을 시 cost function이 최소 가 되는 위치, 즉 두 영상이 가장 잘 겹치는 위치를 찾아낸 것이다. 실험 결과, 위의 쌍에서 overlap area는 85.9%였으며, rotational difference는 0°, translational difference는 一53(row), -18(col) 만큼 변화하였고, 아래 쌍에서는 overlap area는 77%였으며, rotational difference는 18°, transla­ tional difference는 -16(row), -37(col)만큼 변화하였다.

그림 11. 평가 항목을 적용한 실험 결과

4.4 Translational difference

FVC 2000, 2002 그리고 2004 각각의 데이터베이스들의 800장 영상에 대해 genuine matching 한 결과, 3개의 데이터베이스에서 translational difference는 그림 12상으로 큰 차이를 보이지 않 았고, 2000 데이터베이스가 가장 변화량이 적은 것 으로 보인다. 하지만 다른 데이터베이스에 비해 영상 사이즈가 작다는 것을 간과해서는 안 된다. Trans­ lational difference를 정량적으로 측정하기 위해 서 원점으로부터 모든 점의 거리의 평균을 구하였고, 영상 사이즈가 작은 2000 데이터베이스의 영상은 비 율을 통해 다른 데이터베이스와 같은 크기로 nor­ malize 하였다. 그 결과로 2000의 평균거리는 61.9 화소, 2002는 81.0 화소 그리고 2004는 90.3 화소 만큼의 차이가 발생하여 2000 데이터베이스가 변화 량이 가장 적은 것으로 판단되었고, 2002와 2004순 으로 변화량이 커짐을 알 수 있었다. 전체적으로 원 점으로부터 평균거리가 가장 짧은 2000 데이터베이 스의 난이도가 가장 낮다고 판단할 수 있겠다.

그림 12. 데이터베이스들의 translational difference

4.5 Rotational difference

그림 13은 데이터베이스들의 rotational differ- ence를 보여주며, 실험에 사용된 데이터베이스의 회 전량은 대체로 -10°부터 +10°사이에 가장 많이 분 포하는 것으로 나타났다. 전체적으로 회전량의 차이 가 0°인 경우가 가장 많이 측정 되었고, 최대 63°까 지 회전량을 보이는 쌍들도 소수 있었다. 회전량은 2002 데이터베이스가 가장 적었으며, 2000, 2004 순으로 보이고 있다. 그림 13은 가장 많이 분포하는 각에 대해서 보여주는 것이며, 결과적으로 2002가 회전량이 가장 적어 난이도가 가장 낮을 것으로 판단되었고, 2004 , 2000순으로 측정되었다.

그림 13. 데이터베이스들의 rotational difference

4.6 Overlap area

Overlap area는 그림 14와 같은 결과를 보여준 다. 영상 전체가 아닌 enrolled sample 영상의 전 경부분에 대해서만 측정하였기 때문에 overlapped 된 수치가 높게 나타났다. 2000 데이터베이스가 다 른 데이터베이스에 비해 높게 측정되었으며, 2002와 2004 데이터베이스의 결과는 거의 같지만 2004에는 overlap area가 10%미만인 경우가 있어 가장 난이 도가 어렵다고 판단하였다. 2000 데이터베이스의 영 상이 다른 데이터베이스들의 영상 크기보다 작지만, 이는 비율로 측정하기 때문에 큰 영향을 주지 않는 것으로 판단하였다. Overlap area가 10% 미만인 경 우가 2000 데이터베이스에서 많이 나타났으며, 2002 에서는 전혀 발생하지 않았다. 이런 영상 쌍들이 많 을수록 데이터베이스의 난이도를 높아질 것이다.

그림 14. 데이터베이스들의 overlap area

4.7 Image quality

지문 영상의 품질은 다른 항목들과 달리 영상 800 장으로만 측정하였다. 측정 결과 excellent와 very good이 전체에 90%를 차지하는 2002 데이터베이 스가 지문 영상의 품질이 가장 좋았고, 그 다음으로 2004, 2000 순으로 나타났다. 만약에 단지 지문 영 상의 품질의 비교가 아닌 영상의 품질 차를 비교한다 면 fair와 poor 영상이 많을수록 비교 시에는 영상 수의 몇 배에 달하는 안 좋은 영상의 쌍들이 생성되어 성능을 떨어뜨릴 수도 있다. 그러므로 작은 수의 차이 지만 fair와 poor가 많은 2000 데이터베이스가 영상 품질 면에서 가장 좋지 않은 것으로 판단하였다.

4.8 데이터베이스들의 상대적 난이도 비교

표 1은 각각의 데이터베이스에 대해 난이도의 영 향을 미치는 요소들을 분석한 결과이다. 3개의 데이 터베이스들 을 각각 비교하여 결과를 적어 놓은 것이 다. A가 좋음, 日는 보통 그리고 C가 나쁨으로 정의 하였다. 그리고 3개의 데이터베이스들을 상대적으로 비교하여 나온 결과임을 알려두는 바이다. 결과적으 로 2002 데이터베이스의 난이도가 가장 낮게 측정되 었으며, 2000, 2004 데이터베이스 순으로 난이도가 측정되었다. 그 이유는 4개의 평가 요소들에 가중치 를 동일하게 적용했기 때문이다.

표 1. 각각의 데이터베이스에 대한 평가 요소의 결과

또한, 동일한 하나의 알고리즘으로 2000, 2002 그리고 2004 데이터베이스의 EER을 측정하였다. EER 측정 결과, 근소한 차이로 2000(EER6.68%) 데이터베이스에서의 성능이 가장 좋았으며, 2002(EER 6.80%), 2004(EER 9.24%) 순으로 측정 되었다. 이는 난이도의 영향을 미치는 요소들을 측정하여 얻어낸 결과와 차이가 있음을 알 수 있다. 영향요소의 결과는 2002의 난이도가 가장 쉽고, 2000, 2004 데이터베이스의 순으로 난이도가 나타 났지만, 동일한 알고리즘을 통한 결과에서의 EER 수치는 2000, 2002, 2004순으로 성능이 측정되었 다. FVC 2000 데이터베이스의 EER이 낮게 측정 된 원인을 분석한 결과, 2000 데이터베이스만 영상 의 배경이 모두 흰색으로 되어있어 다른 데이터베이 스들 보다 전경과 배경의 구분이 쉽다는 점 즉, 사용 한 알고리즘이 전경과 배경을 구분할 때 mean과 variance를 사용하여 전경과 배경을 구분한다면 배 경이 회색인 경우보다 흰색인 경우의 성능이 더 높게 측정된다는 것과 배경에 노이즈 또는 잔존 지문 영상 이 없다는 점 때문에 이러한 결과가 도출된 것으로 볼 수 있다. 모든 데이터베이스가 동일한 형태였다면 데 이터베이스의 난이도는 2002 데이터베이스가 가장 쉽 고, 2000, 2004 데이터베이스 순이라 할 수 있겠다.

Ⅴ. 결론

본 연구에서는 지문 데이터베이스의 난이도를 측 정하는 방법에 대해 제안하였다. 이를 위해 기존의 orientation field 방법에 계층적 방향성을 추가하 여 예전보다 정확하고 빠르게 측정할 수 있도록 하였 다. 이 방법으로 지문 데이터베이스의 난이도에 영향 을 미치는 요소들을 측정하여 평가하였다. 지문 데이 터베이스의 난이도는 데이터베이스들 간의 특성을 분 석하여 표현할 수 있는 신빙성 있는 지표가 될 것이 며, 난이도 평가는 알고리즘의 성능을 정확히 비교 평가하기 위해 필요한 기본이 될 것이다. 난이도를 측정함으로써 비교하려는 알고리즘들의 성능 평가 결 과에 신뢰성을 주며, 간접적으로 평가 결과 예측을 가능하게 하여 인식 알고리즘의 개발 및 성능 향상에 큰 도움을 주게 된다.

본 논문에서는 데이터베이스들의 난이도에 영향을 미치는 요소들에 대해 평가를 하였고, 그 결과와 동일 한 알고리즘을 통해 측정된 데이터베이스들의 EER 수치를 비교하였다. 그 결과, EER의 수치와 데이터 베이스들의 난이도는 유사함을 확인할 수 있었다. 위 의 실험을 통해 데이터베이스들의 경향을 파악할 수 있었으며, 향후 과제로 위의 요소들 이외에도 새로운 평가 요소들을 추가한다면 더 정확한 결과를 유추해 낼 수 있을 것이다. 그리고 아직까지 정량적으로 표현은 되지 않았지만, translational difference, rotational difference, overlap area 그리고 image quality 요소 등을 중요도 순으로 가중치를 두어 평가하는 것도 좋을 것이다.

References

  1. http://bias.csr.unibo.it/fvc2000/
  2. http://bias.csr.unibo.it/fvc2002/
  3. http://bias.csr.unibo.it/fvc2004/
  4. http://www.frvt.org/
  5. 문지현, 김학일, 길연희, 정윤수, 유장희: '지문영상 데이터베이스의 Level of Difficulty 평가 방법 연구', 한국정보보학회 하계정보보호학술대회 논문집 Vol. 15, No. 1, pp. 5-8, June 2005
  6. 문대성, 길연희, 안도성, 반성범, 정용화, 정교일 : '지문 인증을 이용한 보안 토큰 시스 템 구현', 한국정보보호학회, 정보보호학회논문지, Vol. 13, No. 4, pp.63-70, 2003
  7. 이남일, 강효섭, 김학일 : '지문인식 센서 및 알고리즘 기술 동향', 한국정보보호학회, 정보보호학회지, Vol. 12, No. 2, pp. 16-25, 2002
  8. 염흥열, 박준우, 심상옥 : '지문인식시스템 보안기능 평가 방법론 연구', 한국정보보호 학회, 정보보호학회지, Vol. 13, No. 6, pp. 16-24, 2003
  9. Davide Maltoni ,Dario Maio, Anil K. jain, and Salil Prabhakar : 'Handbook of Fingerprint Recognition', Springer, 2003
  10. Dario Maio and Davide Maltoni, 'Ridge- Line Density Estimation in Digital Images', in Proc.Int. Conf. On Pattern Recognition, pp. 534-538, 1998
  11. Nalini K. Ratha, Shaoyun Chen and Anil K. Jain, 'Adaptive flow orientation based feature extraction in fingerprint images', Pattern Recognition, Vol. 28, No. 11, pp. 1657-1672, 1995 https://doi.org/10.1016/0031-3203(95)00039-3
  12. Lin Hong , Yifei Wan and Anil K. Jain, 'Fingerprint Enhancement: Algorithms and Performance Evaluation', IEEE Translations on Pattern Analysis and Machine Intelligence, Vol. 20, No. 8, pp. 777-789, 1998 https://doi.org/10.1109/34.709565
  13. Neil Yager, Adnan Amin : 'Fingerprint Alignment using a Two Stage Optimization', Pattern Recognition Letter, available online 3 October 2005
  14. http://www.nist.gov/