grok-3-mini 为思考模型,但引入了新的 usage 格式,completions_tokens 只统计非思考的回复内容长度:
"usage": {
"prompt_tokens": 32,
"completion_tokens": 10,
"total_tokens": 299,
"prompt_tokens_details": {
"text_tokens": 32,
"audio_tokens": 0,
"image_tokens": 0,
"cached_tokens": 0
},
"completion_tokens_details": {
"reasoning_tokens": 257,
"audio_tokens": 0,
"accepted_prediction_tokens": 0,
"rejected_prediction_tokens": 0
}
},
其中,
total\_tokens = prompt\_tokens + completion\_tokens + reasoning\_tokens
然后你就可能发现,你部署的中转计费好像和官方统计数据对不上,尤其是你启用 high 思考的时候,几万的 reason_tokens 是被中转统计忽略掉的,所以如果你发现用量消耗对不上,别急着担心秘钥被偷了,也可能只是这个原因 ![]()
简单统计一下几个推理模型的 token 计数:
| 模型 | 是否公开思维链 | 响应字段 | 响应计数 | 是否支持调节推理长度 |
|---|---|---|---|---|
| o1, o3 系列 | No | 分成:input_tokens 和 output_tokens (包含 reasoning_tokens) | total= input+output | Yes |
| deepseek | Yes | 分成: prompt_tokens 和 completions_tokens (包含 reasoning_tokens) | total = prompt + completions | (暂未上线) |
| grok-3-mini | Yes | 分成 prompt_tokens, reasoning_tokens 和 completion_tokens | total = prompt + reason + completion | Yes |



