Qwen2 大型模型已经发布,并且在 Hugging Face 和 ModelScope 上同步开源。这是 Qwen1.5 系列模型的重大升级,包括了 5 个不同尺寸的预训练和微调模型。Qwen2 在训练数据中增加了 27 种语言相关的高质量数据,并且支持更长的上下文长度,最高可达到 128K tokens。Qwen2 相比 Qwen1.5 在大规模模型上实现了显著的效果提升,在多项能力上都超越了当前领先的开源模型。在自然语言理解、知识、代码、数学及多语言等方面都取得了显著的成绩。此外,Qwen2 还采用了不同的模型许可,其中大部分采用 Apache 2.0 许可。