한국어 언어학적 특성 기반 감성분석 모델 비교 분석

Comparative Study of Sentiment Analysis Model based on Korean Linguistic Characteristics

  • 김경민 (고려대학교 컴퓨터학과) ;
  • 박찬준 (고려대학교 컴퓨터학과) ;
  • 조재춘 (상명대학교 스마트정보통신공학과) ;
  • 임희석 (고려대학교 컴퓨터학과)
  • Kim, Gyeong-Min (Dept. of Computer Science and Engineering, College of Informatics, Korea University) ;
  • Park, Chanjun (Dept. of Computer Science and Engineering, College of Informatics, Korea University) ;
  • Jo, Jaechoon (Dept. of Smart Information Communication Engineering, Sangmyung University) ;
  • Lim, Heui-Seok (Dept. of Computer Science and Engineering, College of Informatics, Korea University)
  • 발행 : 2019.10.10

초록

감성분석이란 입력된 텍스트의 감성을 분류하는 자연어처리의 한 분야로, 최근 CNN, RNN, Transformer등의 딥러닝 기법을 적용한 다양한 연구가 있다. 한국어 감성분석을 진행하기 위해서는 형태소, 음절 등의 추가 자질을 활용하는 것이 효과적이며 성능 향상을 기대할 수 있는 방법이다. 모델 생성에 있어서 아키텍쳐 구성도 중요하지만 문맥에 따른 언어를 컴퓨터가 표현할 수 있는 지식 표현 체계 구성도 상당히 중요하다. 이러한 맥락에서 BERT모델은 문맥을 완전한 양방향으로 이해할 수있는 Language Representation 기반 모델이다. 본 논문에서는 최근 CNN, RNN이 융합된 모델과 Transformer 기반의 한국어 KoBERT 모델에 대해 감성분석 task에서 다양한 성능비교를 진행했다. 성능분석 결과 어절단위 한국어 KoBERT모델에서 90.50%의 성능을 보여주었다.

키워드

과제정보

이 논문은 2018년도 정부(교육부)의 재원으로 한국연구재단의 지원을 받아 수행된 기초연구사업임(No. 2018R1D1A1B07051369)