注意 grok-3-mini 的响应字段

grok-3-mini 为思考模型,但引入了新的 usage 格式,completions_tokens 只统计非思考的回复内容长度:

"usage": {
    "prompt_tokens": 32,
    "completion_tokens": 10,
    "total_tokens": 299,
    "prompt_tokens_details": {
      "text_tokens": 32,
      "audio_tokens": 0,
      "image_tokens": 0,
      "cached_tokens": 0
    },
    "completion_tokens_details": {
      "reasoning_tokens": 257,
      "audio_tokens": 0,
      "accepted_prediction_tokens": 0,
      "rejected_prediction_tokens": 0
    }
  },

其中,

total\_tokens = prompt\_tokens + completion\_tokens + reasoning\_tokens

然后你就可能发现,你部署的中转计费好像和官方统计数据对不上,尤其是你启用 high 思考的时候,几万的 reason_tokens 是被中转统计忽略掉的,所以如果你发现用量消耗对不上,别急着担心秘钥被偷了,也可能只是这个原因 :laughing:


简单统计一下几个推理模型的 token 计数:

模型 是否公开思维链 响应字段 响应计数 是否支持调节推理长度
o1, o3 系列 No 分成:input_tokens 和 output_tokens (包含 reasoning_tokens) total= input+output Yes
deepseek Yes 分成: prompt_tokens 和 completions_tokens (包含 reasoning_tokens) total = prompt + completions (暂未上线)
grok-3-mini Yes 分成 prompt_tokens, reasoning_tokens 和 completion_tokens total = prompt + reason + completion Yes
24 个赞

还能这样

1 个赞

newapi调用mini时,如果设置high思考啊佬

1 个赞

客户端如果不支持设置的话试试 newapi 这里的参数覆盖:

4 个赞

最新版newapi已经可以在后面直接加-high了 和o1一样。
reason_token也计费了

3 个赞

还有grok3 mini了?这个也能思考吗哈哈哈

1 个赞

3 mini是思考模型w

1 个赞

可以思考的

1 个赞
1 个赞

哇去那是不是很值

1 个赞

啊?mini才是推理吗?那grok官网的推理也是mini吗 :tieba_087: 怪不得这么快

1 个赞

还可以 目前还在送150 :tieba_087:

1 个赞

mini是推理 而且价格更便宜 :tieba_087: 不到一美元

算力太充足了 :tieba_087:

1 个赞

grok官网的推理也是mini嘛

1 个赞

不太清楚 :tieba_087:

我感觉是think的 think速度和这个差不多 回复结构也很像 :tieba_087:

1 个赞

目前用主要是价格便宜 速度还快 :tieba_087:

1 个赞

OKOK!感谢!

1 个赞

我觉得应该是,因为我在 grok3 刚出的时候问过模型,他说 thinking 就是 grok3mini,过一段时间他又说自己不清楚,估计就是不想提这茬

1 个赞

怪不得thinking这么快啊

此话题已在最后回复的 30 天后被自动关闭。不再允许新回复。