MosaicML推开源大语言模型MPT-7B-8K 上下文长度达8k
MosaicML发布了名为MPT-7B-8K的7B参数开源语言模型,支持8K的上下文长度。与以前的模型相比,MPT-7B-8KLLM在摘要和回答任务方面展现出卓越的能力。Mosaic声称,MPT-7B-8k模型表现出与当前其他具有8k上下文长度的开源模型相当或更好的性能,该公司的上下文学习评估工具证实了这一点。(站长之家)
Copyright © DoNews 2000-2025 All Rights Reserved
蜀ICP备2024059877号-1