Toolformer: Language Models Can Teach Themselves to Use Tools

저자: Timo Schick, Jane Dwivedi-Yu, Roberto Dessì, Roberta Raileanu, Maria Lomeli, Luke Zettlemoyer, Nicola Cancedda, Thomas Scialom | 날짜: 2023-02-09 | DOI: 10.48550/arXiv.2302.04761


Essence

Figure 1

Figure 1: Toolformer의 예시적 예측. 모델이 자율적으로 다양한 API(위에서부터: 질의응답 시스템, 계산기, 기계번역 시스템, Wikipedia 검색 엔진)를 호출하여 텍스트 완성에 필요한 정보를 획득한다.

언어 모델이 자기 자신의 피드백만을 이용하여 계산기, 검색 엔진, 질의응답 시스템 등의 외부 도구를 언제 어떻게 사용할지 자동으로 학습할 수 있는 Toolformer 모델을 제안한다. 인간의 주석 없이 자가감독(self-supervised) 방식으로 학습되며, 6.7B 매개변수의 소규모 모델이 GPT-3보다 나은 성능을 달성한다.

Motivation

Achievement

Figure 2

Figure 2: 접근 방식의 핵심 단계. 입력 텍스트 x가 주어지면 (1) 가능한 API 호출 위치와 후보들을 샘플링하고, (2) API 호출을 실행한 후, (3) 손실함수 감소에 기여하지 않는 호출들을 필터링하여 최종 데이터셋을 구성한다.

  1. 성능 향상: 6.7B 매개변수의 Toolformer(GPT-J 기반)가 다양한 다운스트림 작업에서 175B 매개변수의 GPT-3을 능가하는 제로샷(zero-shot) 성능을 달성한다.
  2. 일반성 보존: 원본 사전학습 데이터셋을 그대로 사용하여 파인튜닝함으로써 언어 모델의 기본 능력을 손상시키지 않으면서 도구 사용 능력을 추가한다.
  3. 다양한 도구 통합: 질의응답 시스템, Wikipedia 검색, 계산기, 번역 시스템, 달력 등 5가지 이질적인 도구를 하나의 프레임워크에서 운영할 수 있다.

How

Figure 3

Figure 3: 질의응답 도구를 위한 프롬프트 P(x)의 예. 모델에게 몇 가지 데모를 통해 API 호출의 형식과 위치를 학습시킨다.

Originality

Limitation & Further Study

Evaluation

총평: Toolformer는 인간 주석 없이 모델 자신의 피드백으로부터 도구 사용을 학습하는 획기적인 접근법을 제시함으로써, 언어 모델의 근본적 한계를 극복하는 실질적이고 일반적인 해결책을 제공한다. 비록 기술적으로는 기존 개념들의 신중한 조합이지만, 자동화된 데이터셋 생성과 효율적인 필터링을 통해 실용적 가치가 높으며, 소규모 모델의 대규모 모델 능가라는 임팩트있는 결과를 달성했다는 점에서 높이 평가된다.

같이 보면 좋은 논문

기반 연구
언어모델이 도구를 스스로 학습하여 사용하는 ReAct의 핵심 개념을 처음 제시한 기초 연구이다.
기반 연구
LLM이 도구 사용을 학습하는 기본 메커니즘을 자기수정 맥락에서 구현한다.
기반 연구
언어 모델의 도구 사용 학습 방법론이 화학 도구 통합 에이전트 개발의 기술적 기반을 제공합니다.
기반 연구
도구 사용 학습 프레임워크가 텍스트 주석 작업에서 ChatGPT의 우수한 성능을 가능하게 하는 기반 기술이다.
기반 연구
LLM의 도구 사용 능력에 대한 종합적 조사가 Toolformer의 자동 도구 학습 방법론을 이론적으로 뒷받침한다.
기반 연구
도구 사용을 스스로 학습하는 언어모델의 개념이 기호적 세계 모델 생성의 기술적 기반이다.
기반 연구
언어모델이 도구를 사용하는 기본 원리를 제공
다른 접근
자동 도구 학습과 대규모 도구 마스터링이 LLM의 외부 도구 활용 능력 향상을 위한 서로 다른 접근법이다.
다른 접근
AI 도구 사용에서 통합 생태계 구축과 언어모델의 자체 도구 학습이라는 서로 다른 접근법을 제시한다.
후속 연구
도구 사용 학습 능력이 텍스트 주석 작업에서 ChatGPT의 우수한 성능을 가능하게 하는 핵심 기술적 기반이다.
← 목록으로 돌아가기