Generative Model Utilizing Multi-Level Attention for Persona-Grounded Long-Term Conversations

페르소나 기반의 장기 대화를 위한 다각적 어텐션을 활용한 생성 모델

  • Bit-Na Keum (Dept. of Artificial Intelligence, Konkuk Univ.) ;
  • Hong-Jin Kim (Dept. of Artificial Intelligence, Konkuk Univ.) ;
  • Jin-Xia Huang (Electronics and Telecommunications Research Institute) ;
  • Oh-Woog Kwon (Electronics and Telecommunications Research Institute) ;
  • Hark-Soo Kim (Dept. of Artificial Intelligence, Konkuk Univ.)
  • 금빛나 (건국대학교 인공지능학과) ;
  • 김홍진 (건국대학교 인공지능학과) ;
  • 황금하 (한국전자통신연구원) ;
  • 권오욱 (한국전자통신연구원) ;
  • 김학수 (건국대학교 인공지능학과)
  • Published : 2023.10.12

Abstract

더욱 사람같은 대화 모델을 실현하기 위해, 페르소나 메모리를 활용하여 응답을 생성하는 연구들이 활발히 진행되고 있다. 다수의 기존 연구들에서는 메모리로부터 관련된 페르소나를 찾기 위해 별도의 검색 모델을 이용한다. 그러나 이는 전체 시스템에 속도 저하를 일으키고 시스템을 무겁게 만드는 문제가 있다. 또한, 기존 연구들은 페르소나를 잘 반영해 응답하는 능력에만 초점을 두는데, 그 전에 페르소나 참조의 필요성 여부를 판별하는 능력이 선행되어야 한다. 따라서, 우리의 제안 모델은 검색 모델을 활용하지 않고 생성 모델의 내부적인 연산을 통해 페르소나 메모리의 참조가 필요한지를 판별한다. 참조가 필요하다고 판단한 경우에는 관련된 페르소나를 반영하여 응답하며, 그렇지 않은 경우에는 대화 컨텍스트에 집중하여 응답을 생성한다. 실험 결과를 통해 제안 모델이 장기적인 대화에서 효과적으로 동작함을 확인하였다.

Keywords

Acknowledgement

이 논문은 2019년도 정부(과학기술정보통신부)의 재원으로 정보통신기획평가원의 지원을 받아 수행된 연구임 (2019-0-00004, 준지도학습형 언어지능 원천기술 및 이에 기반한 외국인 지원용 한국어 튜터링 서비스 개발)