有佬友用过这个oh-my-opencode的beta版本吗

有佬友用过这个oh-my-opencode的beta版本吗

13 个赞

同问,感觉强化了很多,也整合了superpowers的能力

3 个赞

好奇这个beta版,有啥亮点不?

1 个赞

同问,更新很频繁的样子

1 个赞

我昨晚使用了一下,这个beta版本(≥3.0.0.beta.12),增加了Prometheus(Planner)、Metis (The Plan Consultant)、Metis (The Plan Consultant)、Atlas这几个Agent。

先说结论:效果挺不错的,但是很耗Token

需要完整的需求文档,然后发给 Prometheus。随后 Prometheus 会开始自动计划任务,期间会和 Metis (工作计划批判者) 进行左右脑互搏,同时在不明确的地方,会向你提问,最后调用 Momus (工作计划Reviewer),然后输出最终的工作计划。
当你确认工作计划后,可以输入 /start-work 这时候会话会切换到 Atlas 这个agent,并开始委托 Sisyphus-Junior 进行开发,一项一项对完成计划任务。每项任务期间会针对不同的任务类型,自动调用不同模型(可以自行配置)。

我的使用场景大概是(已脱敏并简化,实际需求比示例复杂):

生成前端,需要包含Three.JS以预览系列3D坐标点
在现有后端增加API接口
自动调用浏览器进行调试

目前(截止我睡前),已经持续运行了3个小时,完成了12/18个任务。

期间有几个可圈可点的地方:

  1. 在某一项任务点,Sisyphus-Junior 报告任务已完成,但是 Atlas 审核后,发现并没有实现。实际情况是写入位置错误,随后 Atlas 重新调用并提示正确位置,自行修正了错误
  2. 分阶段完成具体任务。真的3D坐标点预览任务,拆解为了两个子任务运行。
  • 搭建界面基础框架
  • 对页面添加 Three.JS 的3D预览

后续我会发个专门的话题分享一下,以及我的模型/类型配置

7 个赞

佬,omo版本咋更新啊。我是win环境,安装最新的竟然是2.13.2,而我看npm仓库最新又是2.14.0的,死活更新不了 :sob:

opencode.json 那边改为这样

{
  "plugin": [
    "oh-my-opencode@beta"
  ]
}

好的佬,我待会试一下

这是真的 token 消耗量起飞,请求数又高,gemini 接 build 渠道不太好使一下就烧完了,反重力我还没搞,目前自己接 nv 的 minimax 慢的有点受不了了 :tieba_087:

不知道接一般的模型,比如glm4.7或者minimax能达到什么程度

1 个赞

最近一直在用,简直是 token 粉碎机,不用中转或者自建号池可能扛不住这种强度的消耗,但是效果的确不错,多个 agent 来回调,并行执行 background task

最开始的几个 beta 版本问题比较多,最近的版本没啥大问题了

我把这几个agent都配置了模型,但是还是会报找不到claude-opus-4-5(omo代码里写死的 DEFAULT-MODEL)。
然后我就降回去了

如何查看当前 omo 的版本?我配置里没有版本号

bunx oh-my-opencode doctor --verbose

Installation
────────────────────────────────────────
  ✓ OpenCode Installation → 1.1.34
      • Path: 
  ✓ Plugin Registration → Registered (pinned: 3.0.0-beta.16)
      • Config: 
1 个赞

可能是没配好?可以贴出来看看

我没接beta 今天早上似乎也更新到这个版本了?tab切换agent的时候提醒我有atlas这个模型还没配置 得重新写一下oh-my-opencode.json

另外不得不吐槽一下他们这更新之后原来那个frontend-ui-ux直接废弃了 改成了categories代替:sweat_smile:opencode也改了部分模型配置的参数 文档也是一坨 等明天周一了再搞了

对,我刚看了一下,发v3正式版了

文档的话,可以到这看: oh-my-opencode/docs/configurations.md at dev · code-yeongyu/oh-my-opencode · GitHub

1 个赞

我的配置是这样的

{
  "$schema": "https://raw.githubusercontent.com/code-yeongyu/oh-my-opencode/master/assets/oh-my-opencode.schema.json",
  "claude_code": {
    "mcp": false,
    "commands": true,
    "skills": true,
    "agents": false,
    "hooks": false
  },
  "sisyphus_agent": {
    "disabled": false,
    "default_builder_enabled": false,
    "planner_enabled": true,
    "replace_plan": true
  },
  "agents": {
    "sisyphus": {
      "model": "antigravity/claude-opus-4-5-thinking"
    },
    "oracle": {
      "model": "codex/gpt-5.2"
    },
    "librarian": {
      "model": "z.ai/GLM-4.7"
    },
    "explore": {
      "model": "codex/gpt-5.1-codex-mini"
    },
    "multimodal-looker": {
      "model": "antigravity/gemini-3-flash"
    },
    "prometheus": {
      "model": "antigravity/claude-opus-4-5-thinking"
    },
    "metis": {
      "model": "antigravity/claude-sonnet-4-5"
    },
    "momus": {
      "model": "antigravity/claude-opus-4-5-thinking"
    },
    "atlas": {
      "model": "antigravity/claude-sonnet-4-5"
    }
  },
  "categories": {
    "visual-engineering": {
      "model": "antigravity/gemini-3-pro-high"
    },
    "ultrabrain": {
      "model": "codex/gpt-5.2-codex"
    },
    "artistry": {
      "model": "antigravity/gemini-3-pro-high"
    },
    "quick": {
      "model": "codex/gpt-5.1-codex-mini"
    },
    "unspecified-low": {
      "model": "antigravity/claude-sonnet-4-5"
    },
    "unspecified-high": {
      "model": "antigravity/claude-opus-4-5-thinking"
    },
    "writing": {
      "model": "antigravity/gemini-3-flash"
    }
  }
}

2 个赞

明天按你的配置试试。
就不应该设置一个DEFAULT-MODEL写死在代码的,搞得缺失一个agent的模型指定就会错

1 个赞

感谢大佬,omo的配置文件我没有什么问题。就是想问一下 opencode.json 这个文件中如果使用了自定义服务商接入像glm-4.7, minimax-m2.1这种模型的话,关于variant中的options需要写什么东西吗?还是直接留空就可以了?

这是一个加了options的示例
      "models": {
        "gpt-5.1-codex-max": {
          "name": "gpt-5.1-codex-max",
          "options":{
            "reasoningEffort": "high",
            "textVerbosity": "medium",
            "reasoningSummary": "auto"

官方文档中给出的是去AI-SDK里找,我看了一下,GPT, Gemini, Claude相关的模型说明比较全,我也都能配好。但是碰上我自定义接入点的一些公益站(使用glm, minimax)等模型,我使用的是openai-compatible的SDK,这一部分不知道要不要写options。

参考的是这篇文章:从0开始的Opencode.json高级参数配置教程【含配置Provider/中转站/思考预算等】

现在这一部分的配置文件是这样的

脱敏后的opencode.json
  "provider": {
    "axonhub": {
      "models": {
        "MiniMax-M2.1": {
          "limit": {
            "context": 204800,
            "output": 131072
          },
          "name": "Minimax M2.1"
        },
        "glm-4.7": {
          "limit": {
            "context": 204800,
            "output": 131072
          },
          "name": "GLM 4.7"
        }
      },
      "name": "AxonHub",
      "npm": "@ai-sdk/openai-compatible",
      "options": {
        "apiKey": "xxx",
        "baseURL": "http://xxx:8090/v1"