Qwen3即将推出!!!有0.6B, 1.7B, 4B, 8B的稠密模型,30B-A3B和235B-A22B混合专家模型。支持开关思考模式

Qwen3-0.6B.txt (13.0 KB)下了之后自己改md后缀。
通义千问
4月28日17:00更新:他们似乎把所有模型都隐藏了。
4月28日17:15更新:他们漏了一个Qwen3-8B-Base
4月28日17:23更新:8B的也没了。
4月28日18:00更新:Reddit用户random-tomato下载了一份Qwen3-0.6B。不过现在其他的配置文件好像都没有,所以可能还跑不起来。
4月28日19:50更新:感谢@doomooo的截图,似乎还有一个Qwen3-235B-A22B。

Qwen3 亮点

Qwen3 是 Qwen 系列最新一代的大规模语言模型,提供了包括密集型和专家混合(MoE)模型在内的全面套件。基于在训练数据、模型架构和优化技术方面的广泛进步,Qwen3 在先前发布的 Qwen2.5 基础上实现了以下关键改进:

  • 扩展的高质量预训练语料库: Qwen3 预训练使用了覆盖 119 种语言的 36 万亿个令牌——是 Qwen2.5 语言覆盖范围的三倍——包含更丰富的高质量数据混合,如编程、STEM、推理、书籍、多语言和合成数据。
  • 训练技术和模型架构: Qwen3 结合了一系列训练技术和架构改进,包括针对 MoE 模型的全局批处理负载均衡损失以及所有模型的 qk 层归一化,从而提高了稳定性和整体性能。
  • 三阶段预训练: 第一阶段专注于广泛的语言建模和一般知识获取,第二阶段提升 STEM、编程和逻辑推理等推理技能,第三阶段通过将训练序列长度延长至 32,000 令牌来增强长上下文理解能力。
  • 基于缩放定律指导的超参数调整: 通过对三阶段预训练流程进行全面的缩放定律研究,Qwen3 系统地为密集型和 MoE 模型分别调整了诸如学习率调度器和批量大小等关键超参数,从而在不同模型规模下实现了更好的训练动态和最终性能。

模型概述

Qwen3-8B 具有以下特点:

  • 类型:因果语言模型
  • 训练阶段:预训练 & 后训练
  • 参数数量:82 亿
  • 非嵌入参数数量:69.5 亿
  • 层数:36
  • 注意力头数(GQA):Q 为 32,KV 为 8
  • 上下文长度:32,768

更多详情,包括基准评估、硬件要求及推理性能,请参阅我们的 博客GitHub文档

在思考和非思考模式之间切换

[!TIP]
enable_thinking 开关也可在 vLLM 和 SGLang 创建的 API 中使用。
请参阅我们的文档了解更多详情。

enable_thinking=True

默认情况下,Qwen3 启用了思考能力,类似于 QwQ-32B。这意味着模型将使用其推理能力来提高生成响应的质量。例如,当显式设置 enable_thinking=True 或将其保留为 tokenizer.apply_chat_template 中的默认值时,模型将启用其思考模式。

text = tokenizer.apply_chat_template(
    messages,
    tokenize=False,
    add_generation_prompt=True,
    enable_thinking=True  # True 是 enable_thinking 的默认值
)

在此模式下,模型将生成包含在 <think>...</think> 块中的思考内容,然后是最终响应。

[!NOTE]
对于思考模式,请使用 Temperature=0.6TopP=0.95TopK=20MinP=0generation_config.json 中的默认设置)。不要使用贪婪解码,因为它会导致性能下降和无休止的重复。有关更详细的指导,请参阅最佳实践部分。

enable_thinking=False

我们提供了一个硬开关,可以严格禁用模型的思考行为,使其功能与之前的 Qwen2.5-Instruct 模型保持一致。在需要禁用思考以提高效率的场景中,此模式特别有用。

text = tokenizer.apply_chat_template(
    messages,
    tokenize=False,
    add_generation_prompt=True,
    enable_thinking=False  # 设置 enable_thinking=False 会禁用思考模式
)

在此模式下,模型不会生成任何思考内容,也不会包含 <think>...</think> 块。

[!NOTE]
对于非思考模式,我们建议使用 Temperature=0.7TopP=0.8TopK=20MinP=0。有关更详细的指导,请参阅最佳实践部分。

高级用法:通过用户输入在思考和非思考模式之间切换

我们提供了一种软开关机制,允许用户在 enable_thinking=True 时动态控制模型的行为。具体来说,您可以在用户提示或系统消息中添加 /think/no_think,以便逐轮切换模型的思考模式。模型将遵循多轮对话中最近的指令。

以下是一个多轮对话的示例:

见Qwen3-0.6B.txt文件

最佳实践

为了获得最佳性能,我们建议以下设置:

  1. 采样参数

    • 对于思考模式(enable_thinking=True),使用 Temperature=0.6TopP=0.95TopK=20MinP=0不要使用贪婪解码,因为它可能导致性能下降和无休止的重复。
    • 对于非思考模式(enable_thinking=False),我们建议使用 Temperature=0.7TopP=0.8TopK=20MinP=0
    • 对于受支持的框架,您可以调整 presence_penalty 参数在 0 到 2 之间,以减少无休止的重复。但是,使用较高的值有时可能导致语言混合和模型性能略有下降。
  2. 足够的输出长度:我们建议对大多数查询使用 32,768 个 token 的输出长度。对于在高度复杂的问题(例如数学和编程竞赛中的问题)上进行基准测试,我们建议将最大输出长度设置为 38,912 个 token。这为模型提供了足够的空间来生成详细而全面的响应,从而提高其整体性能。

  3. 标准化输出格式:我们建议在进行基准测试时,使用提示来标准化模型输出。

    • 数学问题:在提示中包含“请逐步推理,并将您的最终答案放在 \boxed{} 中。”。
    • 多项选择题:将以下 JSON 结构添加到提示中以标准化响应:“请在 answer 字段中显示您的选择,仅包含选择字母,例如 "answer": "C"。”
  4. 历史记录中无思考内容:在多轮对话中,历史模型输出应仅包含最终输出部分,而无需包含思考内容。它已在 Jinja2 中提供的聊天模板中实现。但是,对于不直接使用 Jinja2 聊天模板的框架,由开发人员负责确保遵循最佳实践。


51 个赞

好像还是小模型?

30b a3b?之前是不是还说15b a3吧?30b应该有点可用性

哦快了快了

看来开源最大30B了,接下来就看有没有闭源的qwen-max系列了

2 个赞

不卷大的,卷小的?30B。。。好像QWQ的32B也不怎么样啊

卷小的利好本地部署 :tieba_087:

跑分神器

佬是在哪看到这个列表的,我点进去是空的

1 个赞

终端上跑?

好像官方都删掉了

好像越来学少了 哈哈 是不是给删了

等Qwen3Max

ollama 上还没有


1 个赞

来力,看情况明天就能用了

1 个赞

都隐藏了现在

没有思考模型啊。本来还挺想看看32b以下的思考模型效果怎么样

好像都是思考模型

是混合模型,可以开关思考