Qwen3-0.6B.txt (13.0 KB)下了之后自己改md后缀。
通义千问。
4月28日17:00更新:他们似乎把所有模型都隐藏了。
4月28日17:15更新:他们漏了一个Qwen3-8B-Base。
4月28日17:23更新:8B的也没了。
4月28日18:00更新:Reddit用户random-tomato下载了一份Qwen3-0.6B。不过现在其他的配置文件好像都没有,所以可能还跑不起来。
4月28日19:50更新:感谢@doomooo的截图,似乎还有一个Qwen3-235B-A22B。
Qwen3 亮点
Qwen3 是 Qwen 系列最新一代的大规模语言模型,提供了包括密集型和专家混合(MoE)模型在内的全面套件。基于在训练数据、模型架构和优化技术方面的广泛进步,Qwen3 在先前发布的 Qwen2.5 基础上实现了以下关键改进:
- 扩展的高质量预训练语料库: Qwen3 预训练使用了覆盖 119 种语言的 36 万亿个令牌——是 Qwen2.5 语言覆盖范围的三倍——包含更丰富的高质量数据混合,如编程、STEM、推理、书籍、多语言和合成数据。
- 训练技术和模型架构: Qwen3 结合了一系列训练技术和架构改进,包括针对 MoE 模型的全局批处理负载均衡损失以及所有模型的 qk 层归一化,从而提高了稳定性和整体性能。
- 三阶段预训练: 第一阶段专注于广泛的语言建模和一般知识获取,第二阶段提升 STEM、编程和逻辑推理等推理技能,第三阶段通过将训练序列长度延长至 32,000 令牌来增强长上下文理解能力。
- 基于缩放定律指导的超参数调整: 通过对三阶段预训练流程进行全面的缩放定律研究,Qwen3 系统地为密集型和 MoE 模型分别调整了诸如学习率调度器和批量大小等关键超参数,从而在不同模型规模下实现了更好的训练动态和最终性能。
模型概述
Qwen3-8B 具有以下特点:
- 类型:因果语言模型
- 训练阶段:预训练 & 后训练
- 参数数量:82 亿
- 非嵌入参数数量:69.5 亿
- 层数:36
- 注意力头数(GQA):Q 为 32,KV 为 8
- 上下文长度:32,768
更多详情,包括基准评估、硬件要求及推理性能,请参阅我们的 博客、GitHub 和 文档。
在思考和非思考模式之间切换
[!TIP]
enable_thinking开关也可在 vLLM 和 SGLang 创建的 API 中使用。
请参阅我们的文档了解更多详情。
enable_thinking=True
默认情况下,Qwen3 启用了思考能力,类似于 QwQ-32B。这意味着模型将使用其推理能力来提高生成响应的质量。例如,当显式设置 enable_thinking=True 或将其保留为 tokenizer.apply_chat_template 中的默认值时,模型将启用其思考模式。
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True,
enable_thinking=True # True 是 enable_thinking 的默认值
)
在此模式下,模型将生成包含在 <think>...</think> 块中的思考内容,然后是最终响应。
[!NOTE]
对于思考模式,请使用Temperature=0.6、TopP=0.95、TopK=20和MinP=0(generation_config.json中的默认设置)。不要使用贪婪解码,因为它会导致性能下降和无休止的重复。有关更详细的指导,请参阅最佳实践部分。
enable_thinking=False
我们提供了一个硬开关,可以严格禁用模型的思考行为,使其功能与之前的 Qwen2.5-Instruct 模型保持一致。在需要禁用思考以提高效率的场景中,此模式特别有用。
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True,
enable_thinking=False # 设置 enable_thinking=False 会禁用思考模式
)
在此模式下,模型不会生成任何思考内容,也不会包含 <think>...</think> 块。
[!NOTE]
对于非思考模式,我们建议使用Temperature=0.7、TopP=0.8、TopK=20和MinP=0。有关更详细的指导,请参阅最佳实践部分。
高级用法:通过用户输入在思考和非思考模式之间切换
我们提供了一种软开关机制,允许用户在 enable_thinking=True 时动态控制模型的行为。具体来说,您可以在用户提示或系统消息中添加 /think 和 /no_think,以便逐轮切换模型的思考模式。模型将遵循多轮对话中最近的指令。
以下是一个多轮对话的示例:
见Qwen3-0.6B.txt文件
最佳实践
为了获得最佳性能,我们建议以下设置:
-
采样参数:
- 对于思考模式(
enable_thinking=True),使用Temperature=0.6,TopP=0.95,TopK=20和MinP=0。不要使用贪婪解码,因为它可能导致性能下降和无休止的重复。 - 对于非思考模式(
enable_thinking=False),我们建议使用Temperature=0.7,TopP=0.8,TopK=20和MinP=0。 - 对于受支持的框架,您可以调整
presence_penalty参数在 0 到 2 之间,以减少无休止的重复。但是,使用较高的值有时可能导致语言混合和模型性能略有下降。
- 对于思考模式(
-
足够的输出长度:我们建议对大多数查询使用 32,768 个 token 的输出长度。对于在高度复杂的问题(例如数学和编程竞赛中的问题)上进行基准测试,我们建议将最大输出长度设置为 38,912 个 token。这为模型提供了足够的空间来生成详细而全面的响应,从而提高其整体性能。
-
标准化输出格式:我们建议在进行基准测试时,使用提示来标准化模型输出。
- 数学问题:在提示中包含“请逐步推理,并将您的最终答案放在 \boxed{} 中。”。
- 多项选择题:将以下 JSON 结构添加到提示中以标准化响应:“请在
answer字段中显示您的选择,仅包含选择字母,例如"answer": "C"。”
-
历史记录中无思考内容:在多轮对话中,历史模型输出应仅包含最终输出部分,而无需包含思考内容。它已在 Jinja2 中提供的聊天模板中实现。但是,对于不直接使用 Jinja2 聊天模板的框架,由开发人员负责确保遵循最佳实践。



