MPT-7B 상업적으로 이용 가능한 오픈소스 LLM Features 1조개의 토큰으로 학습된 트랜스포머 LLaMA-7B와 비슷한 품질이지만 오픈소스, 상업적 이용 가능 추가로 3개의 파인튜닝 모델도 공개 MPT-7B-Instruct, MPT-7B-Chat, MPT-7B-StoryWriter-65K+(65K 토큰 지원) MosaicML 플랫폼에서 9.5일간 약 ~$200K 비용으로 학습했고, 자신만의 MPT 모델을 훈련, 파인튜닝, 디플로이 가능 MPT: Mosaic Pretrained Transformers See also LLM Favorite site Introducing MPT-7B: A New Standard for Open-Source, Commercially Usable LLMs