Development for Multi-modal Realistic Experience I/O Interaction System

멀티모달 실감 경험 I/O 인터랙션 시스템 개발

  • Park, Jae-Un (Department of Emotion Engineering, Sangmyung University) ;
  • Whang, Min-Cheol (Department of Digital Media, Sangmyung University) ;
  • Lee, Jung-Nyun (Department of Emotion Engineering, Sangmyung University) ;
  • Heo, Hwan (Department of Electronics and Electrical Engineering, Dongguk University) ;
  • Jeong, Yong-Mu (SoC Research Center, Korea Electronics Technology Institute)
  • 박재언 (상명대학교 일반대학원 감성공학과) ;
  • 황민철 (상명대학교 소프트웨어대학 디지털미디어학부) ;
  • 이정년 (상명대학교 일반대학원 감성공학과) ;
  • 허환 (동국대학교 일반대학원 전자전기공학과) ;
  • 정용무 (전자부품연구원 SoC연구센터)
  • Received : 2011.10.31
  • Accepted : 2011.12.06
  • Published : 2011.12.30

Abstract

The purpose of this study is to develop the multi-modal interaction system. This system provides realistic and an immersive experience through multi-modal interaction. The system recognizes user behavior, intention, and attention, which overcomes the limitations of uni-modal interaction. The multi-modal interaction system is based upon gesture interaction methods, intuitive gesture interaction and attention evaluation technology. The gesture interaction methods were based on the sensors that were selected to analyze the accuracy of the 3-D gesture recognition technology using meta-analysis. The elements of intuitive gesture interaction were reflected through the results of experiments. The attention evaluation technology was developed by the physiological signal analysis. This system is divided into 3 modules; a motion cognitive system, an eye gaze detecting system, and a bio-reaction sensing system. The first module is the motion cognitive system which uses the accelerator sensor and flexible sensors to recognize hand and finger movements of the user. The second module is an eye gaze detecting system that detects pupil movements and reactions. The final module consists of a bio-reaction sensing system or attention evaluating system which tracks cardiovascular and skin temperature reactions. This study will be used for the development of realistic digital entertainment technology.

본 연구는 단순 입력 기반 유니모달 인터랙션의 한계를 극복하고 단순 입력 방식이 아닌 멀티모달 기반 사용자의 행위, 의도, 및 집중도를 활용하여 실감적이고 몰입도를 향상시키는 인터랙션 시스템을 제안하는데 그 목적이 있다. 본 연구의 선행연구에서 기존 문헌연구를 토대로 메타분석방법을 활용하여 인터랙션을 위한 3차원 동작 인식 기술의 정확도를 분석하여 최종적인 센서 기반 인터랙션 방법이 선정되었고, 직관적 제스쳐 인터랙션 요소를 추출하여 본 시스템에 반영하였다. 또한 생리반응을 이용한 집중력 판단 기술을 개발하여 사용자 의도를 판단하는 연구를 진행하였다. 본 연구에서 제안하는 시스템은 3부분으로 나눌 수 있다. 선행연구에서 선정된 인터랙션 요소들을 적용하여 가속도(Accelator) 센서와 연성(Flexible) 센서를 활용하여 손 동작을 인식하는 시스템을 구현하였고, 동공 인터랙션을 통한 안경형 시선 추적기를 구현하여 인터랙션이 가능하게 하였으며, 심혈관 반응과 피부 온열 반응을 측정하여 사용자의 의도를 반영한 시스템을 최종 구현하였다. 실감형 디지털 엔터테인먼트 플랫폼 기술 개발을 위한 기초 연구로서 활용이 가능할 것으로 판단된다.

Keywords