저자: Elliot Bolton, Abhinav Venigalla, Michihiro Yasunaga, David Hall, Betty Xiong, Tony Lee, Roxana Daneshjou, Jonathan Frankle, Percy Liang, Michael Carbin, Christopher D. Manning | 날짜: 2024 | DOI: arXiv:2403.18421
PubMed 논문 초록과 전체 문서로 훈련된 27억 매개변수 바이오메디컬 언어모델을 제시하며, 대규모 모델과 경쟁할 수 있는 강력한 성능을 달성하면서도 온디바이스 추론, 프라이버시 보호, 투명성과 경제성을 제공한다.
총평: BioMedLM은 대규모 언어모델의 접근성, 프라이버시, 투명성 문제를 정면으로 해결하는 실용적이고 윤리적인 모델로서, 특히 의료기관 등 제약이 많은 도메인에서 즉시 배포 가능한 솔루션을 제공한다. 영역-특화 훈련의 가치를 재증명하며 오픈소스 생태계에 의미 있는 기여를 한다.