Can large language models detect misinformation in scientific news reporting? arXiv preprint arXiv:2402.14268, 2024.

저자: Yupeng Cao, Aishwarya Muralidharan Nair, Nastaran Jamalipour Soofi, Elyon Eyimife, K.P. Subbalakshmi | 날짜: 2024 | DOI: arXiv:2402.14268


Essence

과학 뉴스 기사의 오보(misinformation)를 탐지하기 위해 대규모 언어모델(LLM)의 능력을 평가하고, 과학적 타당성 차원(Dimensions of Validity, DoV)을 정의하여 prompt engineering을 통해 미명시적 주장(explicit claim) 없이도 오보를 검출할 수 있는 세 가지 아키텍처를 제안한다.

Motivation

Achievement

Figure 1

데이터셋 구축 프로세스: 공개 데이터셋, 웹 리소스, LLM 기반 생성을 통한 균형잡힌 코퍼스 수집

  1. CoSMis(SciNews) 데이터셋 개발: 2,400개의 COVID-19 관련 뉴스(신뢰 1,200개, 부신뢰 1,200개)와 CORD-19 과학 초록 페어링. 인간 작성(1,200개)과 LLM 생성(1,200개) 균형 포함으로 실제 시나리오 반영
  2. 과학적 타당성 차원(DoV) 정의: 과학 뉴스의 오보를 다차원으로 평가하는 프레임워크 제시
  3. 3가지 LLM 파이프라인: SERIf(Summarization-Evidence Retrieval-Inference), SIf(Evidence Retrieval 제외), D2I(Direct-to-Inference) 아키텍처로 점진적 처리 단계 감소 설계
  4. 설명가능성 제공: DoV 기반 Chain-of-Thought prompting으로 모델 의사결정 과정의 해석 가능성 확보

How

Figure 3

제안된 3가지 아키텍처: SERIf는 요약→증거 검색→추론의 3단계, SIf는 2단계, D2I는 직접 추론으로 진행

방법론:

Originality

Limitation & Further Study

Evaluation

총평: 이 논문은 과학 뉴스의 오보 탐지 문제를 현대적 관점에서 접근하여 실용적 데이터셋과 명시적 주장 추출이 필요 없는 LLM 파이프라인을 제안했으나, 다중 도메인 일반화와 더 정밀한 평가 프로토콜을 통해 임팩트를 극대화할 수 있는 추가 연구가 필요하다.

같이 보면 좋은 논문

기반 연구
지식 그래프 기반 사실 검증이 과학적 타당성 차원 검증에 활용된다.
다른 접근
과학 뉴스와 일반 뉴스 클레임 검증 모두 LLM 기반 사실 확인 기법을 사용한다.
다른 접근
과학 뉴스와 일반 뉴스 클레임에서 LLM 기반 사실 검증의 다른 적용 분야이다.
후속 연구
과학 논문을 잘못 인용하는 허위정보 탐지로 과학 뉴스 오보 검증을 확장한다.
후속 연구
과학 논문 오용 탐지가 과학 뉴스 오보 검증의 증거 기반 접근을 확장한다.
응용 사례
프로그램 가이드 추론이 과학 뉴스 오보 탐지의 복잡한 주장 검증에 적용된다.
응용 사례
LLM의 과학 문헌 오정보 탐지 능력 연구가 SciTrust의 과학 분야 신뢰성 평가 프레임워크에 직접 적용된다.
응용 사례
기술 분야 지식 활용이 과학 뉴스 오보 탐지에 적용된다.
← 목록으로 돌아가기