Large language models meet NLP: A survey

저자: Libo Qin, Qiguang Chen, Xiachong Feng, Yang Wu, Yongheng Zhang, Yinghui Li, Min Li, Wanxiang Che, Philip S. Yu | 날짜: 2025 | DOI: https://doi.org/10.1007/sxxxxx-yyy-zzzz-1


Essence

Figure 1

다양한 NLP 작업에 LLM 적용 예시 (수학적 추론, 기계 번역, 정보 추출, 감정 분석)

본 논문은 ChatGPT와 같은 대규모 언어모델(LLM)의 자연언어처리(NLP) 분야 응용을 체계적으로 조사한 첫 종합 서베이로, LLM이 기존 NLP 작업을 어떻게 해결하고 있으며 앞으로의 전망은 무엇인지를 다룬다.

Motivation

Achievement

Figure 2

파라미터 동결(a) 및 파라미터 튜닝(b) 패러다임의 분류체계

  1. 첫 번째 종합 서베이 제공: LLM과 NLP의 관계를 다루는 첫 체계적 종합 조사로, 3가지 핵심 질문에 대한 답변 제시
  2. 새로운 분류 체계 제안:
    • 파라미터 동결 패러다임: 제로샷 학습, 퓨샷 학습 (튜닝 불필요)
    • 파라미터 튜닝 패러다임: 전체 파라미터 튜닝, 파라미터 효율적 튜닝 (LoRA, Prefix-tuning, QLoRA 등)
  3. 패러다임별 특성 분석:
Table 1

파라미터 동결 학습은 최저 비용과 최고의 도메인 외 일반화 성능, 전체 파라미터 튜닝은 최고 정확도 달성

  1. 새로운 연구 방향 제시: LLM for NLP의 미래 경향과 관련 도전 과제 논의
  2. 큐레이션된 자료 제공: 오픈소스 구현, 관련 코퍼스, 연구 논문 목록을 포함한 첫 LLM for NLP 자료집 구축

How

Figure 3

자연언어 이해(NLU) 작업: 감정 분석, 정보 추출, 대화 이해, 표 이해

파라미터 동결 패러다임:

파라미터 튜닝 패러다임:

NLP 작업별 적용:

Originality

Limitation & Further Study

Evaluation

Novelty: 4.5/5 Technical Soundness: 4/5 Significance: 4.5/5 Clarity: 4/5 Overall: 4.25/5

총평: 본 논문은 LLM 시대 NLP 분야의 현황을 최초로 체계적으로 정리한 중요한 서베이로, 파라미터 동결/튜닝 이분법적 분류는 실무자들에게 명확한 의사결정 기준을 제공한다. 다만 제공된 본문이 제한적이어서 각 NLP 작업별 LLM의 실제 성능 한계 및 도전 과제에 대한 심화 논의가 추가된다면 더욱 완성도 높은 자료가 될 것으로 기대된다.

같이 보면 좋은 논문

기반 연구
자연언어처리에서 LLM의 기본적 이해가 생물학/화학 특화 과학 LLM 개발의 기반이 된다.
기반 연구
NLP에서 LLM의 기본 원리 이해가 긴 추론 체인과 같은 고급 능력 개발의 기반이 된다.
후속 연구
일반적인 NLP 분야 LLM 조사를 생물학/화학 특화 도메인으로 확장한 전문화된 연구이다.
후속 연구
NLP 중심의 LLM 분석을 멀티모달 생성형 AI와 파운데이션 모델로 확장한 포괄적 조사이다.
← 목록으로 돌아가기