Efficient contrastive learning method through the effective hard negative sampling from DPR

DPR의 효과적인 하드 네거티브 샘플링을 통한 효율적인 대조학습 방법

  • Seong-Heum Park (Konkuk University, Department of Artificial Intelligence) ;
  • Hongjin Kim (Konkuk University, Department of Artificial Intelligence) ;
  • Jin-Xia Huang (Electronics and Telecommunications Research Institute) ;
  • Oh-Woog Kwon (Electronics and Telecommunications Research Institute) ;
  • Harksoo Kim (Konkuk University, Department of Computer Science and Engineering)
  • 박성흠 (건국대학교 인공지능학과) ;
  • 김홍진 (건국대학교 인공지능학과) ;
  • 황금하 (한국전자통신연구원) ;
  • 권오욱 (한국전자통신연구원) ;
  • 김학수 (건국대학교 컴퓨터공학부)
  • Published : 2022.10.18

Abstract

최근 신경망 기반의 언어모델이 발전함에 따라 대부분의 검색 모델에서는 Bi-encoder를 기반으로한 Dense retrieval 모델에 대한 연구가 진행되고 있다. 특히 DPR은 BM25를 통해 정답 문서와 유사한 정보를 가진 하드 네거티브를 사용하여 대조학습을 통해 성능을 더욱 끌어올린다. 그러나 BM25로 검색된 하드 네거티브는 term-base의 유사도를 통해 뽑히기 때문에, 의미적으로 비슷한 내용을 갖는 하드 네거티브의 역할을 제대로 수행하지 못하고 대조학습의 효율성을 낮출 가능성이 있다. 따라서 DRP의 대조학습에서 하드 네거티브의 역할을 본질적으로 수행할 수 있는 문서를 샘플링 하는 방법을 제시하고, 이때 얻은 하드 네거티브의 집합을 주기적으로 업데이트 하여 효과적으로 대조학습을 진행하는 방법을 제안한다. 지식 기반 대화 데이터셋인 MultiDoc2Dial을 통해 평가를 수행하였으며, 실험 결과 기존 방식보다 더 높은 성능을 나타낸다.

Keywords

Acknowledgement

이 논문은 2019년도 정부(과학기술정보통신부)의 재원으로 정보통신기획평가원의 지원을 받아 수행된 연구임 (2019-0-00004, 준지도학습형 언어지능 원천기술 및 이에 기반한 외국인 지원용 한국어 튜터링 서비스 개발)