来源: IT之家 作者:问舟 2025-7-22 10:59:24
阿里云今天更新了旗舰版 Qwen3 模型,推出 Qwen3-235B-A22B-FP8 非思考模式(Non-thinking)的更新版本,命名为 Qwen3-235B-A22B-Instruct-2507-FP8。
阿里云今天更新了旗舰版 Qwen3 模型,推出 Qwen3-235B-A22B-FP8 非思考模式(Non-thinking)的更新版本,命名为 Qwen3-235B-A22B-Instruct-2507-FP8。
阿里云表示,在经过与社区沟通和深思熟虑后,决定停止使用混合思考模式,转为分别训练 Instruct 和 Thinking 模型,以获得最佳质量。
据介绍,新的 Qwen3 模型通用能力显著提升,包括指令遵循、逻辑推理、文本理解、数学、科学、编程及工具使用等方面,在 GQPA(知识)、AIME25(数学)、LiveCodeBench(编程)、Arena-Hard(人类偏好对齐)、BFCL(Agent 能力)等众多测评中表现出色,超过 Kimi-K2、DeepSeek-V3 等顶级开源模型以及 Claude-Opus4-Non-thinking 等领先闭源模型。
FP8 版本的 Qwen3-235B-A22B-Instruct-2507 具有以下功能特点:
类型:因果语言模型 / 自回归语言模型
训练阶段:预训练与后训练
参数量:总共 235B,激活 22B
参数量(非嵌入):234B
层数:94
注意头数(GQA): Q 为 64,KV 为 4
专家数:128
激活专家数:8
上下文长度:原生支持 262,144。
阿里云表示,本次更新的 Qwen3 模型,还增强了以下关键性能:
在多语言的长尾知识覆盖方面,模型取得显著进步。
在主观及开放性任务中,模型显著增强了对用户偏好的契合能力,能够提供更有用的回复,生成更高质量的文本。
长文本提升到 256K,上下文理解能力进一步增强。
目前,Qwen3 新模型已在魔搭社区和 HuggingFace 上开源更新,附官方地址:
官网地址:https://chat.qwen.ai/
HuggingFace:https://huggingface.co/Qwen/Qwen3-235B-A22B-Instruct-2507-FP8
魔塔社区:https://modelscope.cn/models/Qwen/Qwen3-235B-A22B-Instruct-2507-FP8
免责声明: 该文观点仅代表作者本人,Soft6软件网系信息发布平台,Soft6软件网仅提供信息存储空间服务。 未经允许不得转载,授权事宜请联系:support@soft6.com 如对本稿件有异议或投诉,请查看《版权保护投诉指引》