Prompt to be consistent is better than self-consistent? Few-shot and zero-shot fact verification with pre-trained language models

저자: Fengzhu Zeng, Wei Gao | 소속: Singapore Management University | 날짜: 2023 | DOI: arXiv:2306.02569


Essence

본 논문은 사전학습 언어모델(PLM)의 일관성(consistency)을 명시적으로 강제하여 소수샘플(few-shot) 및 영샘플(zero-shot) 사실검증 성능을 향상시키는 ProToCo 방법을 제안한다. 클레임의 다양한 변형을 생성하고 이들 간의 논리적 일관성을 제약조건으로 활용하여 파라미터-효율적 미세조정(PEFT)을 수행한다.

Motivation

Achievement

Figure 2

ProToCo의 아키텍처: 클레임-증거 쌍에서 프롬프트 템플릿 변형을 통해 확인(CON), 불확실성(UNC), 부정(NEG) 변형을 생성하고, (IA)3를 이용한 PEFT로 모델 일관성 학습

  1. Few-shot 성능: 세 개의 공개 사실검증 데이터셋에서 최신 few-shot 기준선 대비 최대 30.4% 상대 F1 개선
  2. Zero-shot 성능: 레이블 없는 인스턴스만으로도 강력한 영샘플 학습기 T0-3B를 지속적으로 상회
  3. 대규모 모델 비교: OPT-30B를 능가하고, Self-Consistency 기반 OPT-6.7B를 유의미하게 초과 (few-shot, zero-shot 모두)

How

Figure 1

일관성 메커니즘의 예시: 동일한 증거에 대해 원본, 확인, 부정, 불확실성 변형의 클레임에 대한 판단이 논리적으로 일치해야 함

프롬프트 기반 변형 생성

일관성 제약조건 정의

파라미터-효율적 미세조정

Originality

Limitation & Further Study

Evaluation

총평: 본 논문은 사실검증 과제의 내재적 논리 구조를 활용하여 명시적 일관성 제약을 통한 few-shot/zero-shot 학습을 효과적으로 구현했다. 프롬프트 기반의 간단하면서도 실용적인 접근이 돋보이나, 이론적 깊이와 확장성 측면에서는 개선 여지가 있다.

같이 보면 좋은 논문

다른 접근
과학적 사실 검증에서 일관성 강제와 약한 감독 학습이라는 서로 다른 접근법을 비교할 수 있다.
다른 접근
과학적 사실 검증에서 일관성 강제와 약한 감독 학습이라는 서로 다른 접근법을 비교할 수 있다.
다른 접근
일관성 유지를 위한 프롬프팅과 명확화를 통한 정확성 향상이라는 다른 전략을 비교할 수 있습니다.
후속 연구
도구 통합 기반 자기 수정 메커니즘을 일관성 강제 프롬프팅과 결합하여 더 강력한 검증 시스템을 구축할 수 있다.
응용 사례
생의학 주장의 검증 가능성 분석에 일관성 강제 방법론을 적용하여 검증 정확도를 높일 수 있다.
응용 사례
검증 불가능한 주장의 특성 분석에 일관성 강제 방법론을 적용하여 검증 가능성을 높일 수 있다.
← 목록으로 돌아가기