When large language models meet citation: A survey

저자: Yang Zhang, Yufei Wang, Kai Wang, Quan Z. Sheng, Lina Yao, A. Mahmood, Wei Emma Zhang, Rongying Zhao | 날짜: 2023 | DOI: 10.48550/arXiv.2309.09727


Essence

Figure 1

LLM과 인용 간의 상호 이익적 관계

대규모 언어 모델(LLM)과 학술 인용 분석 간의 상호 보완 관계를 체계적으로 정리한 최초의 종합 조사 연구이다. LLM이 인용 분석 작업의 성능을 향상시키고, 역으로 인용 데이터가 LLM의 텍스트 표현을 개선하는 양방향 이익 구조를 제시한다.

Motivation

Achievement

Figure 2

LLM과 인용 연구의 분류 체계

  1. LLM의 인용 분석 기여 메커니즘 규명: 고품질 텍스트 임베딩, 강력한 텍스트 생성 능력, 인용 구조 정보 통합 능력 등 세 가지 핵심 메커니즘을 통해 LLM이 인용 분류, 인용 기반 요약, 인용 추천 작업의 성능을 향상시킴을 입증
  2. 인용 분류의 다층적 접근법 제시: BERT, SciBERT, T5 등 판별형(Discriminative) LLM의 고품질 표현뿐 아니라, T5, GPT-2 등 생성형(Generative) LLM을 통한 합성 데이터 생성 및 데이터 불균형 해결 방법 제시
  3. 문서 간 관계 활용의 중요성 강조: 단일 문서 학습을 넘어 다중 홉(Multi-hop) 지식을 학습할 수 있는 인용 네트워크 활용의 가치를 구체화

How

Figure 3

LLM이 인용 작업을 개선하는 경로

인용 분류(Citation Classification)

인용 기반 요약(Citation-based Summarization)

인용 추천(Citation Recommendation)

Originality

Limitation & Further Study

Evaluation

총평: 본 논문은 LLM과 인용 분석 간의 상호 이익 관계를 최초로 체계적으로 정리한 중요한 조사 연구이며, 향후 학술 정보 처리 및 LLM 개선 분야에 명확한 연구 방향을 제시한다. 다만 실증적 성과와 정량적 비교가 강화되면 더욱 강력한 기여가 될 수 있을 것으로 예상된다.

같이 보면 좋은 논문

다른 접근
기준 기반 인용 추천과 순위화가 본 논문의 LLM 중심 접근과는 다른 전통적 정보검색 기반의 인용 분석 방법론을 제시한다.
후속 연구
인용 텍스트 생성을 위한 인용된 텍스트 스팬 연구가 본 논문의 양방향 이익 구조를 세밀한 인용 관계 모델링으로 발전시킨다.
응용 사례
지역 인용 생성을 위한 학습 시스템이 본 논문의 LLM-인용 분석 결합 구조를 구체적인 텍스트 생성 과제에 적용한다.
응용 사례
대규모 언어모델과 인용의 만남에 관한 서베이를 해석가능한 인용 추천으로 구체화합니다.
← 목록으로 돌아가기