Citebart: Learning to generate citations for local citation recommendation

저자: Ege Yiğit Çelik, Selma Tekır | 날짜: 2024 | DOI: N/A


Essence

Figure 1

CiteBART의 워크플로우. 노란색과 녹색 예시는 각각 CiteBART-Base와 CiteBART-Global의 작동 방식을 나타낸다.

본 논문은 인용 토큰(citation token)을 마스킹하는 사용자 정의 사전학습을 통해 로컬 인용 추천(Local Citation Recommendation, LCR) 작업을 수행하는 생성형 모델 CiteBART를 제안한다. 기존의 사전-검색 및 재순위(pre-fetch and re-rank) 파이프라인과 달리 엔드-투-엔드 학습 시스템으로 우수한 성능을 달성한다.

Motivation

Achievement

Figure 2

올바른 예측(a)과 부정확한 예측(b)을 포함한 정성적 분석 사례.

  1. 벤치마크 성능: CiteBART-Global이 FullTextPeerRead를 제외한 모든 LCR 벤치마크에서 최첨단 성능 달성. 특히 Refseer와 ArXiv 같은 대규모 데이터셋에서 유의미한 개선을 보임. Refseer에서 학습된 모델이 최고 성능 모델으로 기록됨.
  2. 할루시네이션 분석: Top-3 예측의 매크로 할루시네이션율(MaHR)이 4%에 불과하며, 정답이 Top-k 리스트에 포함될 때 다른 예측의 할루시네이션 경향이 유의미하게 감소함을 실증.
  3. 교차 데이터셋 일반화: CiteBART-Global이 강한 교차 데이터셋 일반화 능력을 보유.

How

Figure 3

Global 데이터셋 생성을 위한 대규모 언어 모델(LLM)에 대한 프롬프트 예시.

Originality

Limitation & Further Study

Evaluation

총평: CiteBART는 LCR 문제에 대한 창의적인 생성형 접근으로서, 특히 대규모 데이터셋에서 우수한 성능을 보이며 실제 응용 가치가 높다. 다만 소규모 데이터셋 성능 한계와 할루시네이션 문제는 추가 개선이 필요하다.

같이 보면 좋은 논문

기반 연구
해석 가능한 로컬 인용 추천이 인용 생성 모델의 투명성과 신뢰성을 높이는 이론적 기초를 제공한다.
다른 접근
인용 생성과 극단적 요약이 과학 논문에서 핵심 정보를 추출하고 표현하는 서로 다른 방법론이다.
다른 접근
극단적 요약과 인용 생성이 과학 논문의 핵심 정보를 다른 형태로 추출하는 보완적 접근법이다.
다른 접근
인용 텍스트 생성에서 로컬 인용과 텍스트 스팬이라는 서로 다른 정보 단위를 활용합니다.
다른 접근
둘 다 인용 생성 문제를 다루지만 406은 하이브리드 워크플로우, 219는 BART 기반 생성 방법을 사용한다
후속 연구
인용된 텍스트 범위 분석이 로컬 인용 추천 시스템의 정확성과 맥락성을 향상시키는 기반 기술이다.
응용 사례
지역 인용 생성을 위한 학습 시스템이 본 논문의 LLM-인용 분석 결합 구조를 구체적인 텍스트 생성 과제에 적용한다.
← 목록으로 돌아가기