저자: Adrián Bazaga, Píetro Lió, Gos Micklem | 날짜: 2023 | 소속: University of Cambridge
본 논문은 SFAVEL(Self-supervised Fact Verification via Language Model Distillation)을 제안하여, 인간의 주석 없이 사전학습된 언어모델의 지식을 증류(distillation)함으로써 클레임과 근거 간의 의미론적 정렬을 학습하는 자기지도학습 기반 팩트 검증 프레임워크를 소개한다. 이는 FB15k-237에서 +5.3% Hits@1, FEVER에서 +8% 정확도 개선을 달성했다.
데이터 처리 파이프라인:
사전학습 방법론:
세 가지 손실함수 조합:
선택적 미세조정: 사전학습된 모델을 지도학습 팩트 검증 분류 작업에 미세조정 가능
한계:
후속 연구:
총평: SFAVEL은 팩트 검증에 특화된 자기지도학습 프레임워크로 SOTA 성능을 달성했으며, 주석 불필요한 확장 가능한 접근법을 제시한 의미 있는 기여이다. 다만 지식그래프 의존성과 설계 선택의 이론적 깊이가 보강된다면 더욱 강력한 연구가 될 수 있다.