Evaluating the Replicability of Social Science Experiments in Nature and Science

저자: Colin F. Camerer, Anna Dreber, Felix Holzmeister, Teck-Hua Ho, Jürgen Huber, Magnus Johannesson, Michael Kirchler, Gideon Nave, Brian A. Nosek, Thomas Pfeiffer, Adam Altmejd, Nick Buttrick, Taizan Chan, Yiling Chen, Eskil Forsell, Anup Gampa, Emma Heikensten, Lily Hummer, Taisuke Imai, Siri Isaksson, Dylan Manfredi, Julia Rose, Eric-Jan Wagenmakers, Hang Wu | 날짜: 2018 | DOI: 10.1038/s41562-018-0399-z


Essence

Figure 1

Fig. 1 | Replication results after stage 1 and stage 2. a, Plotted are the 95% CIs of the replication effect sizes (stan

2010-2015년 Nature와 Science에 발표된 사회과학 실험 21개를 체계적으로 재현한 결과, 62%만이 원래 방향의 유의미한 효과를 보였으며 평균 효과크기는 원래의 50% 수준임을 보고한다.

Motivation

Achievement

Figure 1

Fig. 1 | Replication results after stage 1 and stage 2. a, Plotted are the 95% CIs of the replication effect sizes (stan

How

Originality

Limitation & Further Study

Evaluation

Novelty: 4/5 Technical Soundness: 3/5 Significance: 4/5 Clarity: 4/5 Overall: 4/5

총평: 이 연구는 최고 권위 저널의 사회과학 실험이 예상보다 낮은 재현율(62%)과 감소된 효과크기(50%)를 보임을 체계적으로 입증하여 과학 출판과 방법론의 신뢰성 문제를 중요하게 조명했으며, 사전 등록과 투명한 재현 프로토콜이 과학 커뮤니티 표준이 되도록 기여한 중요한 메타과학 연구이다.

같이 보면 좋은 논문

기반 연구
심리학에서 시작된 재현성 위기가 사회과학 전반으로 확산된 양상을 보여주는 발전적 사례이다.
후속 연구
심리학 분야 재현성 위기를 다른 사회과학 분야로 확장하여 학문 전반의 신뢰성 문제를 종합적으로 조명한다.
반론/비판
기존 연구의 낮은 재현율에 비해 AI 생성 가설의 높은 실험 성공률은 연구 방법론의 혁신 가능성을 시사한다.
반론/비판
AI 생성 가설의 실험 검증 성공률과 기존 연구의 재현 실패율을 비교하여 연구 방법론의 효과성을 평가할 수 있다.
← 목록으로 돌아가기