저자: Neil Perry, Megha Srivastava, Deepak Kumar, Dan Boneh | 날짜: 2023-11-15 | DOI: 10.1145/3576915.3623157
Figure 1: 각 질문별 보안 실수 원인별 실험군(파란색)/대조군(녹색) 응답 분포
본 논문은 AI 코드 어시스턴트 사용자가 보안 관련 프로그래밍 작업을 수행할 때 더 안전하지 못한 코드를 작성하는지 대규모 사용자 실험을 통해 조사했다. 연구 결과 AI 어시스턴트(OpenAI's Codex-davinci-002)에 접근한 참가자들이 접근하지 못한 참가자들보다 유의미하게 보안 취약점이 많은 코드를 작성했으며, 역설적으로 자신의 코드가 안전하다고 더 높은 확률로 믿었다.
Figure 2: 솔루션 정확성, 보안에 대한 신뢰도의 사후 설문 조사 응답 (Likert 척도)
Figure 3: 제출된 사용자 코드와 AI 생성 코드 간의 편집 거리(Edit Distance) 히스토그램
Figure 4: 각 질문별 선택된 프롬프트 전략의 비율
총평: 본 논문은 AI 코드 어시스턴트의 실제 사용 환경에서의 보안 위험을 최초로 대규모 사용자 실험으로 입증한 중요한 연구로, 특히 사용자 과신 현상의 발견과 상호작용 전략의 영향 분석이 학계와 산업에 귀중한 통찰을 제공한다. 공개 연구 인프라의 제공은 재현성과 후속 연구를 촉진하는 긍정적 기여이며, 다만 단일 모델 기반 분석 및 제한적 표본 크기 등의 한계는 향후 개선이 필요하다.