OLMo: Accelerating the Science of Language Models

저자: Dirk Groeneveld, Iz Beltagy, Pete Walsh, Akshita Bhagia, Rodney Kinney, Oyvind Tafjord, Ananya Harsh Jha, Hamish Ivison, Ian Magnusson, Yizhong Wang, Shane Arora, David Atkinson, Russell Authur, Khyathi Raghavi Chandu, Arman Cohan, Jennifer Dumas, Yanai Elazar, Yuling Gu, Jack Hessel, Tushar Khot, William Merrill, Jacob Morrison, Niklas Muennighoff, Aakanksha Naik, Crystal Nam, Matthew E. Peters, Valentina Pyatkin, Abhilasha Ravichander, Dustin Schwenk, Saurabh Shah, Will Smith, Emma Strubell, Nishant Subramani, Mitchell Wortsman, Pradeep Dasigi, Nathan Lambert, Kyle Richardson, Luke Zettlemoyer, Jesse Dodge, Kyle Lo, Luca Soldaini, Noah A. Smith, Hannaneh Hajishirzi | 날짜: 2024-06-07 | DOI: 10.48550/arXiv.2402.00838


Essence

Figure 1

Figure 1: Accuracy score progression of OLMo-7B on 8 core end-tasks score from Catwalk evaluation suite

OLMo는 훈련 데이터, 훈련 코드, 평가 도구까지 모두 공개한 완전 개방형 언어 모델(Open Language Model)이다. 이를 통해 언어 모델에 대한 과학적 연구를 가능하게 한다.

Motivation

Achievement

Figure 1

Figure 1: Accuracy score progression of OLMo-7B on 8 core end-tasks score from Catwalk evaluation suite

  1. 완전 개방형 모델 공개: 1B, 7B 규모의 여러 아키텍처 변형 모델을 2T 이상의 토큰으로 훈련하여 공개
  2. Dolma 데이터셋: Common Crawl, GitHub, Reddit, Semantic Scholar, Project Gutenberg, Wikipedia로부터 2.668조 토큰의 다양한 프리트레이닝 데이터 공개
  3. 포괄적 도구 및 자료: 훈련 코드, 추론 코드, 평가 프레임워크(Catwalk, Paloma), 데이터 큐레이션 도구, WIMBD 데이터셋 분석 도구 제공
  4. 적응(Adaptation) 시연: TULU 데이터와 설정을 이용한 지시문 미세조정(instruction finetuning)으로 채팅 보조 모델 개발 가능성 입증

How

Figure 2

Figure 2: Bits per byte on 11 evaluation data sources from Paloma and their combination (Magnusson et al., 2023),

Originality

Limitation & Further Study

Evaluation

Novelty: 4/5 Technical Soundness: 3/5 Significance: 4/5 Clarity: 4/5 Overall: 4/5

총평: OLMo는 진정한 의미의 완전 개방형 언어 모델을 제공함으로써 언어 모델 연구의 투명성과 재현성을 획기적으로 향상시킨다. 데이터, 코드, 도구까지 모두 공개하는 이 종합적인 접근은 학술 커뮤니티에 큰 기여를 하며 향후 언어 모델 연구의 새로운 방향을 제시한다.

같이 보면 좋은 논문

기반 연구
완전 개방형 언어모델의 투명성과 재현가능성 원칙이 약물 발견 AI 모델의 신뢰성 있는 통합에 필수적 기반을 제공한다.
기반 연구
완전 개방형 언어모델 OLMo의 투명성 원칙이 약물 발견 AI 모델의 신뢰성 확보에 필요한 기반을 제공한다.
기반 연구
OLMo의 완전 공개 접근법이 학습분석 분야 공개 데이터셋의 투명성과 재현가능성 모범 사례 수립에 방법론적 기반을 제공한다.
후속 연구
과학 분야 LLM의 데이터 중심 분석을 완전 개방형 언어모델 OLMo의 투명한 과학적 연구 방법론으로 확장한다.
후속 연구
언어모델 과학 연구를 위한 완전 공개 접근법을 교육 분야 공개 데이터셋의 모범 사례와 품질 기준으로 확장한다.
응용 사례
OLMo의 완전 공개 방법론이 과학 분야 LLM의 270개 데이터셋과 190개 벤치마크 투명성 확보의 실질적 구현 사례를 보여준다.
← 목록으로 돌아가기