Qwen2 大型模型已经发布,并且在 Hugging Face 和 ModelScope 上同步开源。这是 Qwen1.5 系列模型的重大升级,包括了 5 个不同尺寸的预训练和微调模型。Qwen2 在训练数据中增加了 27 种语言相关的高质量数据,并且支持更长的上下文长度,最高可达到 128K tokens。Qwen2 相比 Qwen1.5 在大规模模型上实现了显著的效果提升,在多项能力上都超越了当前领先的开源模型。在自然语言理解、知识、代码、数学及多语言等方面都取得了显著的成绩。此外,Qwen2 还采用了不同的模型许可,其中大部分采用 Apache 2.0 许可。
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。