阿里通义千问今日宣布推出开源的Qwen2.5-1M模型及其对应的推理框架支持。此次发布的两个新开源模型——Qwen2.5-7B-Instruct-1M和Qwen2.5-14B-Instruct-1M,首次将Qwen模型的上下文长度扩展至1M,显著提升了长上下文任务的处理能力。
为帮助开发者更高效地部署Qwen2.5-1M系列模型,Qwen团队开源了基于vLLM的推理框架,并集成了稀疏注意力方法,使得处理1M标记输入时的速度提升了3倍到7倍。在长上下文任务中,Qwen2.5-1M系列模型表现出色,特别是在处理超过64K长度的任务时,显著优于之前的128K版本。
此外,Qwen2.5-14B-Instruct-1M模型在多个数据集上稳定超越GPT-4o-mini,为长上下文任务提供了开源模型的选择。在短文本任务上,Qwen2.5-7B-Instruct-1M和Qwen2.5-14B-Instruct-1M的表现与其128K版本相当,确保了基本能力不受影响。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。