HiAgent: Hierarchical Working Memory Management for Solving Long-Horizon Agent Tasks with Large Language Model

저자: Mengkang Hu, Tianxing Chen, Qiguang Chen, Yao Mu, Wenqi Shao, Ping Luo | 날짜: 2024 | DOI: arXiv:2408.09559


Essence

Figure 1

STANDARD 패러다임과 HiAgent의 작업 메모리 관리 비교

대규모 언어 모델(LLM) 기반 에이전트의 장기 작업 수행을 위해, 인지과학의 청킹(chunking) 원리에 영감을 받아 부분목표(subgoal)를 메모리 청크로 활용한 계층적 작업 메모리 관리 프레임워크를 제시한다. 기존 방식의 모든 행동-관찰 쌍을 컨텍스트에 포함하는 방식을 개선하여 작업 메모리 중복성을 제거한다.

Motivation

Achievement

Figure 2

HiAgent의 계층적 작업 메모리 관리 프로세스

  1. 성공률 및 효율성 개선:
    • 성공률이 STANDARD 방식 대비 2배 향상 (42% vs 21%)
    • 평균 진행률(progress rate)에서 23.94% 우월
    • 평균 단계 수를 3.8배 감소, 컨텍스트 길이 35.02% 단축, 실행 시간 19.42% 감축
  2. 강건성 및 일반화: 다양한 단계에서 일관된 성능 향상 입증 및 높은 행동 실행 가능성(executability) 달성으로 방법론의 견고성 확보

How

Figure 3

서로 다른 단계에서의 진행률 비교

Originality

Limitation & Further Study

Evaluation

총평: 인간의 인지 메커니즘에 영감을 받아 계층적 작업 메모리 관리로 LLM 에이전트의 장기 작업 성능을 실질적으로 향상시킨 실용적이고 효과적인 연구이다. 다만 부분목표 자동 생성과 요약 전략의 상세 기술화 및 더 광범위한 평가 확대가 필요하다.

같이 보면 좋은 논문

기반 연구
인간 기억에서 AI 메모리로의 서베이가 HiAgent의 인지과학 기반 메모리 관리의 이론적 토대를 제공한다.
다른 접근
LLM 에이전트를 위한 에이전틱 메모리와 계층적 작업 메모리 관리가 서로 다른 메모리 관리 접근법을 제시한다.
후속 연구
장기 일관성을 위한 계층적 작업 메모리 관리가 자율 에이전트 벤치마킹의 메모리 측면을 확장한다.
← 목록으로 돌아가기