저자: Dengyun Peng, Yuhang Zhou, Qiguang Chen, JinHao Liu, Jingjing Chen, Libo Qin, Wanxiang Che | 날짜: 2025 | DOI: 미제공
그림 1: 반사 기반 프롬프트 최적화 방법과 DLPO의 비교 - 견고성, 효율성, 일반화 능력 개선
대규모 언어 모델(LLM)의 프롬프트 최적화에서 기존 반사(reflection) 기반 방법의 불안정성, 낮은 수렴 속도, 제한된 일반화 능력을 해결하기 위해 전통 딥러닝 기법에서 영감을 얻은 7가지 텍스트 기반 그래디언트 최적화 전략을 제시한다. 이를 통해 프롬프트 최적화의 견고성(robustness), 효율성(efficiency), 일반화 능력(generalizability)을 동시에 향상시킨다.
그림 3: 기존 방법의 불안정성, 낮은 효율성, 제한된 일반화 능력 분석
그림 2: 반사 기반 프롬프트 최적화의 정방향(Forward)과 역방향(Backward) 엔진
견고성 개선 방법:
효율성 개선 방법:
일반화 개선 방법:
총평: 이 논문은 프롬프트 최적화의 근본적인 문제들(견고성, 효율성, 일반화)을 체계적으로 진단하고 딥러닝 패러다임에서 영감을 얻은 일관성 있는 해결책을 제시한 점에서 높이 평가할 만하다. 다만 제한된 작업 유형, 불충분한 ablation study, 계산 오버헤드 분석 부재 등으로 인해 완전한 5점 평가에는 미치지 못한다. LLM 기반 자동 최적화 분야에 실질적인 기여를 하는 의미 있는 작업이다.