Skip to content

MPT-7B

상업적으로 이용 가능한 오픈소스 LLM

Features

  • 1조개의 토큰으로 학습된 트랜스포머
  • LLaMA-7B와 비슷한 품질이지만 오픈소스, 상업적 이용 가능
  • 추가로 3개의 파인튜닝 모델도 공개
    • MPT-7B-Instruct, MPT-7B-Chat, MPT-7B-StoryWriter-65K+(65K 토큰 지원)
  • MosaicML 플랫폼에서 9.5일간 약 ~$200K 비용으로 학습했고, 자신만의 MPT 모델을 훈련, 파인튜닝, 디플로이 가능
  • MPT: Mosaic Pretrained Transformers

See also

Favorite site