近期,阿里云旗下的百炼平台推出了全新的Qwen2.5-Turbo模型,这是一个能够处理达100万tokens的超长文本模型。该模型由通义千问团队精心打造,相当于能够处理100万个英文单词或150万个汉字的海量信息。
Qwen2.5-Turbo模型在长文本检索领域展现了惊人的性能,准确率高达100%,并在RULER长文本评测集上以93.1分成绩超越了GPT-4。在LV-Eval、LongBench-Chat等真实场景的长文本任务中,Qwen2.5-Turbo在多个评测维度上领先于GPT-4o-mini。同时,该模型在短文本基准测试中也表现出色,大幅超越了之前1M tokens上下文长度的开源模型。
Qwen2.5-Turbo模型具有广泛的应用前景,适用于深入理解长篇小说、大规模代码助手、多篇学术论文阅读等多个领域,能够一次性处理相当于10本长篇小说、150小时演讲稿或3万行代码的庞大数据量。在推理速度上,团队采用稀疏注意力机制,将计算量减少约12.5倍,将处理1M tokens文本的首字返回时间从4.9分钟缩短至68秒,实现了速度的4.3倍提升。
阿里云百炼平台现向所有用户开放Qwen2.5-Turbo API的调用权限,并限时赠送1000万tokens的免费额度。对于后续使用,每百万tokens的成本仅需0.3元。
目前,阿里云百炼平台已经上线了包括Qwen、Llama、ChatGLM在内的超过200种国内外主流的开源和闭源大型模型,支持用户进行直接调用、训练微调以及开发RAG应用。
暂无评论