DOI QR코드

DOI QR Code

Repeatability Test for the Asymmetry Measurement of Human Appearance using General-purpose Depth Cameras

범용 깊이 카메라를 이용한 인체 외형 비대칭 측정의 반복성 평가

  • Jang, Jun-Su (KM Fundamental Research Division, Korea Institute of Korean Medicine)
  • 장준수 (한국한의학연구원 한의기반연구부)
  • Received : 2016.03.30
  • Accepted : 2016.06.02
  • Published : 2016.06.25

Abstract

Human appearance analysis is an important part of both eastern and western medicine fields, such as Sasang constitutional medicine, rehabilitation medicine, dental medicine, and etc. By the rapid growing of depth camera technology, 3D measuring becomes popular in many applications including medical area. In this study, the possibility of using depth cameras in asymmetry analysis of human appearance is examined. We introduce the development of 3D measurement system using 2 Microsoft Kinect depth cameras and fully automated asymmetry analysis algorithms based on computer vision technology. We compare the proposed automated method to the manual method, which is usually used in asymmetry analysis. As a measure of repeatability, standard deviations of asymmetry indices are examined by 10 times repeated experiments. Experimental results show that the standard deviation of the automated method (1.00mm for face, 1.22mm for body) is better than that of the manual method (2.06mm for face, 3.44mm for body) for the same 3D measurement. We conclude that the automated method using depth cameras can be successfully applicable to practical asymmetry analysis and contribute to reliable human appearance analysis.

Keywords

서 론

한의학의 망진(望診)은 인체의 외형을 눈으로 관찰하여 병증 진단의 근거로 활용하는 진단영역이다. 인체 외형의 정확한 수치화는 객관적인 진단 및 치료효과 검증에 있어서 가장 기본적인 사항이다. 과거에는 한의사의 눈으로 관측한 주관적인 정보에 의존할 수밖에 없었지만, 현대에는 측정 장비들의 발달로 객관적인 수치에 기반한 진단이 이루어지고 있다.

외형 정보는 사상의학, 형상의학, 침구학, 재활의학, 정형외과, 치과, 성형의학 등 동·서 의학 전분야에 광범위하게 활용되고 있다. 사상의학에서는 안면 및 체형 정보를 이용하여 객관적인 체질진단에 활용하고 있으며1-3), 안면 마비4), 안면 비대칭5-7) 등의 진단 및 치료 효과 검증 등에 활용되고 있다.

외형의 측정을 위해서 가장 널리 활용되고 있는 방법은 사진 촬영이다. DSLR과 같은 고화질의 카메라부터 스마트폰 카메라, 웹 카메라 등의 간단하고 편리한 촬영까지 임상현장의 상황에 맞게 활용되고 있다.

사상체질 분류를 위한 안면 외형 분석 연구에서는 DSLR 카메라를 이용하여 안면의 정면 및 측면을 촬영하고 안면의 주요 특징점들을 분석하는 연구가 꾸준히 진행되고 있다8). 외형분석을 위한 수치적인 자료를 도출하지 않더라도 실제로 많은 한의원에서 치료 전후의 외형 변화를 환자에게 설명하기 위해서 사진 촬영이 이루어지고 있다. 치과, 성형외과 등 인체 구조에 대한 정확한 측정이 중요한 분야에서는 고품질의 측정을 위해서 3차원 측정이 활발히 활용되고 있지만 한의학 분야에서는 상대적으로 미흡한 실정이다. 사상의학과 형상의학 분야에서 3차원 기기를 이용한 외형 분석 연구가 진행되고 있으나9,10) 고가의 장비 가격 및 특징 추출 수작업의 번거로움으로 인해서 대규모 데이터 획득이 힘든 실정이며, 결과적으로 의료기기로서 로컬 한의원까지 보급되지는 않고 있다. 하지만 최근 Microsoft, Intel 등의 글로벌 대기업을 필두로 범용 깊이 카메라(depth camera) 시장이 폭발적으로 성장하고 있어서, 경제적이고 실용성 있는 3차원 측정이 가능해지고 있으며 관련 연구도 활발히 진행되고 있다11-13). 깊이 카메라는 카메라와 측정 대상과의 거리를 측정할 수 있는 카메라를 지칭하는데, 색상 등의 텍스쳐 측정을 위한 2차원 컬러 카메라와 결합된 형태로 제품화되어 3차원 재구성, 모션인식, 게임 등 다양한 분야에 활용되고 있다. 이제는 로컬 한의원에서도 고비용 부담 없이 3차원 측정이 가능한 시대가 왔다고 볼 수 있다.

인체의 외형 측정이 활용될 수 있는 여러 의학적 분야 중 가장 두드러진 분야가 비대칭 분석이다. 인체 비대칭 분석은 경조직(hard tissue)분석과 연조직(soft tissue) 분석으로 나눌 수 있는데, 경조직 분석을 위해서는 X-ray 영상 등이 주로 활용되며, 연조직 분석에는 자기공명 영상이 주로 사용된다. 치과, 성형외과 등의 서양의학 연구에서는 방사선 영상을 기본으로 뼈, 인대, 근육, 피부층 내부 정보에 초점을 두고 있는데, 본 연구는 사람의 눈으로 관측할 수 있는 피부층 바깥의 외형 분석에 초점을 둔다.

대부분의 인체 비대칭 연구에서는 기준축 혹은 기준면을 중심으로 특징점의 위치관계를 분석한다14). 안면 비대칭에서는 관상면(coronal plane)상에서 나타나는 비대칭이 중요한데, 이를 위해서는 정중면(sagittal plane)을 올바르게 설정하고 좌우 대칭되는 특징점들이 정중면에서 얼마나 떨어져 있는지를 계산하여 비대칭 정도를 수치화 할 수 있다. 특징점의 위치는 대부분의 경우 사람이 수동으로 지정하며15), 정중면, 정중선(mid-sagittal line) 등의 기준도 수동으로 찾아낸 특징점들에 의해서 설정된다. 예로 3차원 영상 분석 소프트웨어를 활용하여 3차원 CT 영상을 살펴보면서, 뼈의 특정 위치로 정의된 특징점들을 마우스로 클릭하여 지정함으로써 분석이 수행된다.

3차원 측정 자체는 정확도가 확보되더라도 분석을 위해서는 여전히 사람의 수작업이 많이 필요하며 이러한 수작업에 의해서 오차 요인이 발생한다. 특히 얼굴 형상 분석의 기준면(reference plane)으로 가장 많이 활용되는 Frankfort plane 은 좌, 우 귓구멍위점(porion)과 좌측 눈확점(orbitale)을 지나는 평면으로 정의되므로, 뼈 정보가 보이지 않는 외형 측정 데이터에서 정확히 설정하기는 어렵다.

본 연구에서는 Kinect 깊이 카메라를 이용하여 안면과 체형의 3차원 측정 시스템 개발 결과를 소개한다. 또한 비대칭 분석에 있어서 기준면 설정 등 모든 과정을 자동화된 알고리즘에 의해 수행하고 기존의 수동 분석에 비해 향상된 반복성 결과를 제시한다.

 

연구내용 및 방법

1. 깊이 카메라 측정 환경 소개

1) 깊이 카메라를 이용한 3차원 측정

본 연구에 활용한 깊이 카메라는 Microsoft Kinect for windows v1으로 깊이 카메라의 한의학 분야 적용 가능성을 살펴본 기존연구13)와 동일하다. 기존연구에서는 한 대의 고정된 Kinect camera를 이용하여 특정 방향에서 피험자 안면을 촬영하였는데, 이는 2차원 카메라와 유사한 측정 SOP를 따르면서, 단지 카메라만 교체한 형태였다. 따라서 제한적인 3차원 측정이라고 볼 수 있으며, 단지 실제 크기 추출을 위해서 2차원 측정 시스템에서 얻을 수 없었던 거리(깊이) 정보를 추가적으로 활용할 수 있는 장점이 있었다.

본 연구에서 소개하는 촬영 시스템은 Fig. 1과 같이 Kinect 깊이 카메라 2대를 배치한 형태로 기존연구의 경우보다 넓은 영역을 한 번에 스캔할 수 있으며, 따라서 측정 방향의 제약 없이 대상 인체의 3차원 형상을 측정할 수 있다. Stereo 카메라 형태로 깊이 카메라를 구성하였기 때문에 카메라를 움직여가면서 스캔하지 않더라도 두 카메라로부터 순간 촬영된 영상정보를 정합(alignment)하여 3차원 재구성이 가능하다.

Fig. 1.Setup for 3D measuring using stereo configuration of 2 Kinect depth cameras.

측정 대상영역(안면 혹은 체형)의 정면방향을 두 카메라 사이지점으로 향하게 하여 측정을 수행한다. 측정 후 3차원 재구성된 데이터에 대해서 자동으로 자세보정 후 비대칭 분석과정이 수행될 것이므로, 2차원 측정 혹은 기존연구13)와 달리 정면방향에 대해서 엄격한 기준을 측정 당시에 적용할 필요는 없다. 촬영거리는 안면의 경우 약 60~70 cm 이고, 체형의 경우 약 90~110 cm 이다. 직접적인 태양광이 없는 실내 형광등 환경에서 측정하며 대상영역의 내, 외곽 윤곽선이 구별될 정도의 조명 환경이 유지되어야 한다. 측정 시스템 구현을 위해서는 Visual studio 2013 환경에서 Kinect SDK v1.816)을 이용하였다.

2) 스테레오 카메라 보정 (Calibration)

다수의 카메라를 동시에 활용할 때 정확도를 위해서 가장 중요한 부분은 카메라 보정이다. 즉 Fig. 2와 같이 3차원 공간상에서 각각의 카메라가 어떻게 위치하는지 알아내고, 각각의 카메라 영상에 들어오는 정보가 정확하게 보정되어야 한다. 이를 위해서 25쌍의 격자패턴을 이용한 보정을 수행하였고, 보정 정확도(reprojection error) 0.4픽셀 이하임을 확인하였다. 카메라 보정 프로그램 및 앞으로 설명할 자동 분석 알고리즘은 matlab computer vision system toolbox17)를 이용하여 구현하였다.

Fig. 2.Camera calibration result of stereo configuration of 2 Kinect cameras.

2. 자동 분석 방법

1) 정중면 설정

인체의 비대칭 분석은 주로 좌우대칭을 의미하는 데, 따라서 정중면의 설정이 가장 중요하다. 동일한 3차원 측정 데이터라고 하더라도 정중면의 설정이 달라지면 비대칭 정도도 변화하게 된다. 사람에 의해서 수동 지정된 특징점을 기반으로 설정되는 정중면을 지양하고자 자동화된 알고리즘에 의한 정중면 설정 방법을 제안한다.

정중면을 자동 설정하는 문제는 입력 3차원 데이터의 자세를 추정하는 문제와 동일하다. 이를 위하여 Iterative Closest Point (ICP) 알고리즘18)과 평면 fitting 알고리즘을 활용하였다. ICP 알고리즘은 동일한(혹은 형태가 유사한) 물체에 대한 두 그룹의 point cloud를 정합하기 위해서 스케일, 회전, 이동 변환을 계산하는 방법이다. 즉, 정면방향이 정의된 기준(reference) point cloud 모델을 사전에 마련하고, 입력 point cloud의 기준 point cloud 모델에 대한 스케일, 회전, 이동 변환값을 찾아내면 두 point cloud를 같은 자세로 정렬할 수 있다. 평면 fitting 알고리즘은 최소자승법에 의해서 얼굴 영역의 point cloud를 근사하는 평면 방정식을 구하는 과정이다. ICP 알고리즘을 이용한 자세정렬이 끝난 후 입력 point cloud 에 대해서 평면 fitting을 수행하여 평면의 법선벡터로 정면방향을 추가 조정한다. Fig. 3은 정중면을 설정하기 위한 안면의 자동 자세추정 예시를 보여준다.

Fig. 3.Pose estimation of 3D face for obtaining a sagittal plane.

Fig. 3.의 좌측 그림은 ICP 알고리즘에 의해서 입력 3차원 point cloud가 기준모델에 정렬된 예시를 보여준다. 중앙 그림은 입력 3차원 point cloud를 대표하는 평면의 예시를 보여준다. 자세추정이 끝나면 입력 3차원 point cloud는 우측 그림과 같이 3차원 기준좌표계상에 정렬되며 X축 좌표가 0인 Y-Z 평면이 정중면이 된다. 모든 과정은 사람의 개입 없이 자동으로 이루어진다.

Fig. 4는 동일한 방식에 의해서 체형의 정중면 자동 추정 과정을 보여준다.

Fig. 4.Pose estimation of 3D body shape for obtaining a sagittal plane.

2) 안면 비대칭 지수 계산

자세추정이 완료되면 2차원 투영영상(X-Y 평면으로 투영)을 획득한 후 안면 특징 추출 알고리즘을 적용한다. Gauss-Newton deformable part model에 기반한 자동 안면 특징점 추출 알고리즘19)을 활용하여 안면의 주요 특징점을 추출한다. 안면 특징점을 추출하는 알고리즘 계열 중 가장 널리 활용되는 방법이 가변부분모델(deformable part model)에 기반을 둔 방법인데, 이는 얼굴을 수십 개의 부분으로 나누고 각 부분들의 외관(appearance) 특징 및 부분간의 위치변화를 모델링하는 기법이다. 본 연구에서 사용한 방법은 가변부분모델 계열의 방법 중 하나로 Gauss-Newton 최적화를 활용하여 비교적 우수한 성능을 가진 것으로 보고된 방법이다.

Fig. 5에 안면의 특징점 추출 결과 예시와 안면 비대칭 지수, Facial Asymmetry Index (FAI) 계산과정을 도시하였다. 특징점 추출 후에 눈, 코, 입 위치에서 얼굴 폭을 이루는 경계점까지 길이를 추출한다. 정중면으로부터 좌우방향 길이를 비교하여 안면 비대칭 지수를 수식 (1)과 같이 계산한다.

Fig. 5.Facial landmark points extraction and width features for calculating facial asymmetry index.

정중면은 Y-Z 평면으로 자동 설정되어 있으므로 X-Y평면상에서 좌우방향 길이만 비교하면 된다. N은 좌우방향 길이를 비교할 위치의 개수이며 본 연구에서는 눈, 코, 입의 총 3개의 위치이나 목적에 따라서 다양하게 설정할 수 있다. xli는 좌측 방향 얼굴 경계점의 x좌표이며, xri는 우측 방향 얼굴 경계점의 x좌표이다. xli는 음수이며, xri는 양수이므로, 두 수치의 합의 절대값은 좌우길이 차이의 절대값과 같다. 좌우 경계점 쌍의 y좌표는 항상 같으므로 x좌표만 비교하면 된다. 완벽히 좌우 대칭인 경우에 FAI 는 0이 되며, 값이 커질수록 비대칭 정도가 커짐을 의미한다.

3) 체형 비대칭 지수 계산

체형 비대칭 지수도 안면과 유사하게 진행된다. 안면의 경우에는 눈, 코, 입 등의 주요 특징점들의 추출이 비교적 용이하나, 체형의 경우에는 외형 정보로만 특징점들의 위치를 정의하기에는 어려움이 있다. 따라서 체형의 주요부위를 구분 지을 수 있는 컬러 마커를 활용하였다.

Fig. 6에 컬러마커 기준 위치에서 체형 비대칭 지수, Body Asymmetry Index (BAI) 계산을 위한 측정 지점을 나타내었다. 측정 지점은 사상체질 체형분석에서 많이 사용하는 부위인 겨드랑이, 가슴, 늑골, 허리, 장골, 곡골 위치이다. 그림에서 보는 것과 같이 체형의 주요부위에 컬러 마커를 부착하고 자동화된 컬러 마커 검출 프로그램을 구현하여 위치검출을 자동으로 수행한다. 각 마커의 위치를 기반으로 안면과 유사하게 정중면 기준으로 좌우 경계점까지 길이를 비교하여 체형 비대칭 지수, Body Asymmetry Index (BAI) 를 수식 (2)와 같이 계산한다. 계산식은 안면의 경우와 동일하다.

Fig. 6.Calculating body index asymmetry index

3. 실험 및 분석방법

본 연구에서는 자동화된 분석 알고리즘에 의해서 비대칭 지수가 얼마나 반복성 있게 계산되는지에 초점을 두고 있으므로, 안면과 체형 모형을 각 10회 측정하고 비대칭 지수의 반복도 평가를 수행한다. 안면 모형에서는 3종류 길이값을 추출하고 안면 비대칭 지수를 계산하며, 체형 모형에서는 6종류 길이값을 추출하고 체형 비대칭 지수를 계산한다. 동일한 각 10회 측정에 대해서 3차원 편집작업에 숙련된 사람이 3D 모델 편집툴을 이용하여 컴퓨터 화면상에서 특징점들을 수동으로 지정하는 방식으로 계산된 비대칭 지수의 표준편차와 제안된 자동화 알고리즘에 의한 비대칭 지수의 표준편차를 비교한다.

 

결 과

1. 3차원 재구성 결과

Fig. 7에 3차원 재구성된 안면과 체형의 예시를 보였다. 3차원 모델은 측정 당시 카메라와 이루는 자세에 따라서 초기자세가 다를 수 있는데, 예를 들어 그림에서 안면 모델이 기준좌표축에 대해서 정면을 바라보고 있지 않음을 확인할 수 있다. 앞에서 설명한 정중면 자동 설정 방법에 의해서 정해진 기준좌표계로 10회 측정한 각각의 3차원 모델이 같은 자세로 정렬되고 비대칭 분석을 수행하였다.

Fig. 7.3D face and body reconstruction examples

2. 안면 비대칭 지수

동일한 안면 모형에 대해서 3차원 측정을 10회 실시하였다. 10개의 3차원 재구성된 모델에 자동화된 방법을 적용하여 안면 비대칭 지수를 계산하였다. 또한 비교를 위해서 사람이 수동으로 모든 3차원 모델을 동일한 자세로 정렬한 후, 특징점들을 지정하여 그 좌표값을 추출하고 이를 이용하여 안면 비대칭 지수를 계산하였다. Table 1에 10회 실험에 대한 비교 결과를 정리하였다. 자동화된 방법에 의한 안면 비대칭 지수의 표준편차가 1.00 mm 이며, 이는 수동으로 계측했을 때의 2.06 mm 보다 우수함을 확인할 수 있었다.

Table 1.Repeatability results of facial asymmetry index

3. 체형 비대칭 지수

체형 모형을 이용한 실험도 안면과 유사하게 진행되었다. 동일한 체형 모형에 대해서 10회 측정을 수행하였고, 10개의 3차원 재구성된 모델에 대해서 자동 및 수동 방법에 의해서 체형 비대칭 지수를 계산하였다.

Table 2에 실험 결과를 정리하였다. 자동 계산된 체형 비대칭 지수의 표준편차가 1.22 mm 이며 수동으로 계측했을 때에는 3.44 mm 으로, 안면 모형 실험과 마찬가지로 자동화된 방법이 더 반복도가 좋음을 확인할 수 있었다.

Table 2.Repeatability results of body asymmetry index

 

고 찰

인체의 외형을 정확하게 측정하는 것은 사상의학, 형상의학, 근골격계 질환 진단 등 광범위하게 적용되는 기술이다. 과거에는 줄자, 버니어 캘리퍼스, 2차원 사진 촬영 등을 통하여 외형을 측정하였으나, 3차원 측정기기의 발달로 점점 3차원 측정의 빈도가 높아지고 있다. 특히 글로벌 대기업들의 치열한 범용 깊이 카메라 시장 경쟁에 의해서 이제는 가정에서도 3차원 측정이 가능한 시대가 왔다. 시대의 흐름에 발맞추어 대량 보급이 가능한 범용 깊이 카메라 기반 3차원 측정을 한의 진단에 응용한 연구가 꾸준히 지속될 것이다.

2차원 측정과 3차원 측정의 차이점을 크게 세 가지 측면으로 볼 수 있는데, 첫째는 당연하게도 3차원 형상 정보 유무에 있다. 즉 2차원 측정은 2차원 상의 거리, 각도 등을 얻게 되는데, 3차원 측정은 3차원 상의 거리, 각도 등을 측정할 수 있다. 예로, 두 눈동자 사이 거리는 직선거리(Euclidean distance)와 표면거리(surface distance)로 나눌 수 있는데, 직선거리는 2차원 측정에서도 관측이 가능하지만 표면거리는 3차원 측정에서만 가능하다.

둘째는 크기 정보의 측정 가능 여부이다. 2차원 측정은 기본적으로 단일 측정으로는 실제 대상물의 크기 정보 측정이 불가능한데, 이는 가까이서 사진을 찍으면 물체가 크게 나오고 멀리서 찍으면 작게 나오는 당연한 이치이다. 2차원 측정으로 크기 정보를 알기 위해서는 기준이 되는 눈금자 등을 대상물체와 동일거리에 놓고 같이 촬영한 후 실제 크기를 추정하는 방식 등이 필요한데, 이 과정에서 불필요한 오차가 추가되는 단점이 있다. 3차원 측정은 거리측정이 가능하므로 크기 정보 측정에 장점이 있는데, 관련된 사전연구로 Microsoft Kinect 깊이 카메라를 이용하여 실제 크기 정보를 측정하는 데 있어서, 3차원 측정이 기존 2차원 측정을 대체하여 안면 진단기에 활용될 수 있음을 보인 적이 있다13).

셋째는 시점(viewpoint) 변경 가능 여부이다. 2차원 측정은 측정 당시 카메라와 피험자간의 상대 위치 및 자세에 의해서 시점이 결정되고 측정 후에는 변경이 불가능하다. 따라서 측정 당시 정확한 시점 제어가 되지 않은 데이터는 큰 오차를 포함하게 되고 추후 보정도 힘들다. 3차원 측정의 경우에는 측정 후에 3차원 재구성된 데이터를 분석 소프트웨어를 활용하여 사람이 이동, 회전 등의 자세 변경을 할 수 있으므로 시점 불일치에 따른 오차는 자동화된 알고리즘 혹은 수동 조작에 의해서 개선이 가능한 장점이 있다. 본 연구는 3차원 측정의 장점 중 자동화된 시점 변경이 가능함에 초점을 두고 있다.

자세보정은 인체의 비대칭 정도 분석에 있어서 특히 중요한데, 촬영당시 결정된 카메라와 측정대상과의 위치관계에 의해서 동일한 측정대상에 대한 비대칭 지수가 변화한다면 데이터의 신뢰성에 문제가 있다. 2차원측정에서는 빈번하게 일어나는 일이며, 3차원 측정에서도 분석과정에서 사람의 수작업에 의한 오차요인 등이 발생할 확률이 높다.

본 연구에서는 범용 깊이 카메라 2대를 스테레오 형태로 배치한 인체의 3차원 측정 시스템을 소개하였고, 비대칭 분석에 있어서 보편적으로 활용되는 수작업이 전혀 필요하지 않은 자동화 알고리즘을 구현하여 수작업을 동반한 분석보다 효과적임을 보였다. 안면 모형에 대한 10회 반복 실험에서 자동화된 방법에 의한 안면 비대칭 지수의 표준편차는 1.00 mm로 수동으로 계측했을 때의 2.06 mm 보다 우수함을 확인할 수 있었다. 체형의 경우에도 자동화된 방법의 경우 체형 비대칭 지수의 표준편차가 1.22 mm 로 수동으로 계측했을 때의 3.44 mm 보다 우수한 결과를 보였다.

자동화된 알고리즘에 기반한 비대칭 분석은 사람의 수작업에 비해서 반복성이 우수한 장점이 있으나, 예기치 못한 상황에 의하여 알고리즘이 실패하는 경우에는 큰 오차를 포함할 가능성이 있으므로 사람이 확인하여 수정할 경우가 존재한다. 따라서 여전히 분석 과정에서 사람의 모니터링이 필요하다. 자동화된 분석 결과에 대한 확신도에 해당하는 값을 알고리즘이 제공해 줄 수 있다면 사람의 모니터링 과정이 수월해 질 수 있을 것이다.

현재 개발된 시스템을 임상에 적용하기 위해서는 사용자 인터페이스가 보강되어야 할 것이다. 3차원 데이터를 시각화하고 사용자 입력을 통한 특징점 지정, 수정 작업의 효율 향상을 위해서 사용자 인터페이스는 중요한 요소이다. 또한 2차원 측정에 비해서 카메라와 피험자의 자세에 대한 제약은 많이 완화되었지만, 어느 정도 기준 자세는 설정하여 측정하는 것이 유리하다. 예상할 수 있는 기준 자세정보는 자동 분석 알고리즘의 성공률을 더욱 높일 수 있으며, 또한 수작업이 필요할 경우에도 작업의 편의성이 높아진다.

최근 3D 프린팅, 자율주행 자동차 등의 산업과 연관되어 깊이 카메라의 하드웨어 성능은 빠르게 발전하고 있으며, 3차원 영상의 자동 분석 기술도 꾸준히 향상되고 있다. 이러한 기술들의 적극적인 활용이 한의 진단의 신뢰성 향상에 기여할 것으로 생각된다.

 

결 론

본 연구에서는 깊이 카메라를 이용한 인체 외형의 3차원 측정 방법을 소개하고, 자동화된 방법에 의한 비대칭 분석을 수행하였다. 깊이 카메라 시장이 폭발적으로 성장하고 있어서 3차원 측정기기의 가격은 지속적으로 떨어지고 있으며, 이는 가정이나 소규모 한의원에서도 부담없이 3차원 측정을 하게 됨을 의미한다.

3차원 측정이 가지는 많은 장점들이 있지만 여전히 분석에 있어서 사람의 수작업이 많이 존재하며, 이는 측정 신뢰성에 직접적인 영향을 준다. 따라서 정확한 측정기기 뿐만 아니라 자동화된 분석 알고리즘이 필요하며 본 연구에서는 비대칭 분석에 있어서 자동화된 알고리즘이 수작업을 통한 분석보다 반복성이 높음을 보였다. 하지만 아직까지 인체의 형상을 분석하는 데 있어서 자동화된 알고리즘이 성공적으로 동작하는 범위는 한정되어 있으며 이에 꾸준한 기술개발이 이루어져야 할 것이다.

References

  1. Lee, E.J., Sohn, E.H., Yoo, J.H., Kim, J.W., Kim, K.K., Koh, B.H., Song, I.B. The study of sasangin’s face. J. of Sasang Constitutional Medicine. 17(3):55-68, 2005.
  2. Koh, B.H., Song, I.B., Cho, Y.J., Choi, C.S., Kim, J.W., Hong, S.C., Lee, E.J., Lee, S.Y., Seo J.S. A Morphologic Study of head and face for Sasang Constitution. J. of Sasang Constitutional Medicine. 8(1):101-186, 1996.
  3. Hong, S.C., Lee, E.J., Lee, S.K., Han, G.H., Kho, B.H., Song, I.B. A morphological study for objectification of the Sasang Constitution diagnosis On the So-eumin. J. of Sasang Constitutional Medicine. 10(1):171-180, 1998.
  4. Kim, M.B., Kim, J.H., Shin, S.H., Yoon, H.J., Ko, W.S. A Study of Facial Nerve Grading System. J. of Korean Oriental Medical Ophthalmology & Otolaryngology & Dermatology. 20(3):147-160, 2007.
  5. Yi, C.K., Chang, H.H., Kim, H.K. Diagnosis And Treatment Of Facial Asymmetry. Journal of The Korean Association of Oral and Maxillofacial Surgeons. 17(3):1-10, 1991.
  6. Hwang, H.S. Maxillofacial 3-D Image Analysis for the Diagnosis of Facial Asymmetry. The Journal of Korean Dental Association. 42(2):76-83, 2004.
  7. Ferrario, V.F., Sforza, C., Poggio, C.E., Tartaglia, G., Distance from Symmetry: a Three-dimensional Evaluation of Facial Asymmetry. Journal of Oral and Maxillofacial Surgery. 52: 1126-1132, 1994. https://doi.org/10.1016/0278-2391(94)90528-2
  8. Do, J.H., Jang, E.S., Ku, B.C., Jang, J.S., Kim, H.G., Kim, J.Y. Development of an integrated Sasang constitution diagnosis method using face, body shape, voice, and questionnaire information. BMC Complementary and Alternative Medicine. 12: 85, 2012. https://doi.org/10.1186/1472-6882-12-85
  9. Suk, J.H., Cho, K.R., Cho, Y.B., Yoo, J.H., Kwak, C.K., Lee, S.K. An error examination of 3D Face Automatic Recognition. J. of Sasang Constitutional Medicine. 18(2):41-49, 2006.
  10. Lee, S.Y., Hwang, M.W. Studies on the Modeling of the Three-dimensional Standard Face and Deriving of Facial Characteristics Depending on the Taeeumin and Soyangin. J. of Constitutional Medicine. 26(4):350-364, 2014. https://doi.org/10.7730/JSCM.2014.26.4.350
  11. Khoshelham, K., Elberink, S.O. Accuracy and resolution of Kinect depth data for indoor mapping applications. Sensors 12: 1437-1454, 2012. https://doi.org/10.3390/s120201437
  12. Wang, R., Hernandez, M., Choi, J., Medioni, G. Accurate 3D face and body modeling from a single fixed Kinect. Proc. of the 4th International Conference on 3D Body Scanning Technologies (3DBST 2013), 2013.
  13. Jang, J.S., Do, J.H., Kim, J.W., Nam, J.H. Study on the Practical 3D Facial Diagnosis using Kinect Sensors. J of Physiology & Pathology in Korean Medicine. 29(3):218-222, 2015. https://doi.org/10.15188/kjopp.2015.06.29.3.218
  14. Hong, J.R. Facial Asymmetry: Critical Element of Clinical Successful Treatment. The Journal of Korean Dental Association. 52(10):623-632, 2014.
  15. Hwang, H.S., Yuan, D.H., Jeong, K.H., Uhm, G.S., Cho, J.H., Yoon S.J. Three-dimensional Soft Tissue Analysis for the Evaluation of Facial Asymmetry in Normal Occlusion Individuals. The Korean Journal of Orthodontics. 42(2):56-63, 2012. https://doi.org/10.4041/kjod.2012.42.2.56
  16. https://www.microsoft.com/en-us/download/details.aspx?id=40278
  17. http://kr.mathworks.com/products/computer-vision/
  18. https://en.wikipedia.org/wiki/Iterative_closest_point
  19. Tzimiropoulos, G., Pantic, M. Gauss-Newton Deformable Part Models for Face Alignment in-the-wild. IEEE Conference on Computer Vision and Pattern Recognition. pp 1851-1858, 2014.