SEVerA: Verified Synthesis of Self-Evolving Agents

저자: Debangshu Banerjee, Changming Xu, Gagandeep Singh | 날짜: 2026-03-26 | DOI: [미제공]


Essence

자기 진화하는 LLM 에이전트의 합성에 형식적 안전성 보증을 제공하는 프레임워크이다. FGGM(Formally Guarded Generative Models)을 통해 각 모델 호출에 형식적 계약을 지정하고, 검증-학습 단계를 분리하여 제약 조건 위반 없이 성능 개선을 달성한다.

Motivation

Achievement

![Figure 1: SEVerA 프레임워크의 고수준 개요로, Search-Verification-Learning의 3단계 파이프라인을 보여줌. 각 단계에서 형식적 계약이 어떻게 유지되는지 시각화함.]

  1. FGGM 개념 도입: 1차 논리(first-order logic)를 사용하여 각 생성 모델 호출에 대한 형식적 입출력 사양을 정의. Rejection sampler + 검증된 fallback으로 구현되어 모든 입력과 매개변수 설정에서 계약을 만족하는 출력을 보증.
  2. SEVerA 프레임워크: Search(후보 프로그램 합성) → Verification(형식적 정확성 증명) → Learning(제약 없는 학습) 3단계로 구성. 검증된 후의 학습은 GRPO 스타일 미세조정 등 확장 가능한 기울기 기반 최적화 활용 가능.
  3. 형식적 건전성 증명: Theorem 5.4에서 반환된 에이전트가 모든 입력과 매개변수에 대해 행동 사양을 만족함을 증명. Theorem 5.5에서 제약을 만족하면서도 초기 매개변수의 비제약 모델 이상의 손실을 초래하지 않는 검증된 에이전트의 존재 조건 확립.
  4. 실험 성과:
    • HumanEvalDafny: 97.0% (기준 86.9%)
    • GSM-Symbolic: 66.0% (기준 44.7%)
    • τ²-bench 항공사 도메인: 52.6% (Claude Sonnet 4.5 기반 Agent-C 초과)
    • 모든 벤치마크에서 0 제약 위반 달성

How

![Figure 2: 자동 합성된 보호된 생성 모델(GM)의 예시. 1차 논리 계약이 검증기에 의해 어떻게 처리되는지 보여줌.]

Originality

Limitation & Further Study

Evaluation

총평: SEVerA는 자기 진화 LLM 에이전트에 형식적 안전성을 부여하는 선도적 작업으로, FGGM이라는 우아한 추상화와 Sound한 이론적 기초를 제공한다. 실험 결과도 제약 조건이 단순한 안전장치를 넘어 합성 품질을 향상시킴을 보여주는 점에서 의미 있으나, 검증 가능 언어 의존성과 계약 표현의 한계가 일반화 가능성을 제약한다.

같이 보면 좋은 논문

기반 연구
AI 에이전트 신뢰성 평가 원칙이 자기진화 에이전트의 형식적 검증 프레임워크 설계에 핵심 기반을 제공합니다.
기반 연구
과학 워크플로우의 운영 엄격성이 자기진화 에이전트의 형식적 안전성 보증 시스템에 기초 원칙을 제공합니다.
다른 접근
형식적 검증과 도구 기반 자기교정이라는 서로 다른 방식으로 AI 에이전트의 안전성과 신뢰성을 보장합니다.
후속 연구
에이전트 신뢰성 평가 메트릭이 자기진화 에이전트의 형식적 안전성 보증으로 확장됩니다.
응용 사례
형식적 안전성 보증 개념을 과학 워크플로우의 실제 데이터 무결성과 협업 시스템에 적용합니다.
← 목록으로 돌아가기