저자: Li Zhou, Ruijie Zhang, Xiao Dai, Daniel Hershcovich, Haizhou Li | 날짜: 2025 | DOI: arXiv:2502.11193
본 논문은 학술 저술 및 피어 리뷰 과정에서 대규모 언어모델(LLM)의 침투 정도를 측정하기 위한 포괄적 평가 프레임워크를 제시한다. ScholarLens 데이터셋과 LLMetrica 도구를 통해 규칙 기반 지표와 모델 기반 탐지기를 결합하여 학술 워크플로우에서의 LLM 사용 추세를 다각도로 분석한다.
파이프라인 개요: (1) ScholarLens 큐레이션, (2) LLMetrica 프레임워크, (3) 학술 저술 및 피어 프로세스의 LLM 침투율 평가
ScholarLens의 일반 특성에 기반한 인간 저술과 LLM 생성 텍스트 비교
규칙 기반 지표(Rule-Based Metrics):
모델 기반 탐지기(Model-Based Detectors):
다차원 평가 방식:
후속 연구 방향:
총평: 본 논문은 학술 커뮤니티에서 시급한 LLM 투명성 문제를 다루는 실질적 도구와 데이터셋을 제공하며, 다각도 평가 프레임워크와 학술 영역 특화 지표 개발이 돋보인다. 다만 시간성과 도메인 일반화 측면의 한계를 보완한다면 학술 출판 거버넌스 개선에 더욱 기여할 수 있을 것이다.