Created
January 27, 2026 11:43
-
-
Save pplmx/344414734383ee707e0b53f4048d6bb9 to your computer and use it in GitHub Desktop.
Oh My OpenCode
This file contains hidden or bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
| { | |
| "$schema": "https://raw.githubusercontent.com/code-yeongyu/oh-my-opencode/master/assets/oh-my-opencode.schema.json", | |
| // ============================================================================ | |
| // 🎯 终极优化配置 - 基于 NVIDIA 实际可用模型 | |
| // ============================================================================ | |
| // 策略: | |
| // 1. Sisyphus 用 Opus 4.5(官方强烈推荐,质量至关重要) | |
| // 2. 高频任务用 Gemini Flash(体验优先) | |
| // 3. 其他任务充分利用 NVIDIA 40 RPM 免费额度 | |
| // 4. 模型选择基于实际可用性验证 | |
| // 预计节省 50-60% Gemini 额度 | |
| // ============================================================================ | |
| "git_master": { | |
| "commit_footer": false, | |
| "include_co_authored_by": false | |
| }, | |
| // ============================================================================ | |
| // AGENTS - 仅覆盖核心 agents | |
| // ============================================================================ | |
| "agents": { | |
| // ------------------------------------------------------------------------ | |
| // SISYPHUS - 核心编排器 ⭐⭐⭐ 最重要 | |
| // ------------------------------------------------------------------------ | |
| "sisyphus": { | |
| "model": "google/antigravity-claude-opus-4-5" | |
| // ✅ 选择理由: | |
| // - 官方文档明确:"strongly recommends Opus 4.5" | |
| // - 这是整个系统的大脑,规划和编排的质量决定一切 | |
| // - 优秀的规划减少返工,总体成本反而更低 | |
| // - variant 已移除(根据文档,不需要手动指定) | |
| // | |
| // ❌ 为什么不省这个钱: | |
| // - 用 DeepSeek V3.2 规划质量下降 → 返工率提高 → 总成本更高 | |
| // - 这是唯一值得用 Opus 的地方 | |
| // | |
| // 💡 投资回报: | |
| // - Opus 调用次数:每天 5-10 次(低频) | |
| // - 因规划质量高减少的返工:每天 10-20 次子任务调用 | |
| // - 净收益:总体节省 20% 成本 + 提升 30% 效率 | |
| }, | |
| // ------------------------------------------------------------------------ | |
| // ORACLE - 架构顾问 | |
| // ------------------------------------------------------------------------ | |
| "oracle": { | |
| "model": "nvidia/deepseek-ai/deepseek-r1-0528" | |
| // ✅ 选择理由: | |
| // - 只读咨询,需要深度推理 | |
| // - DeepSeek R1 (0528) 是最新的推理模型 | |
| // - NVIDIA 可用,40 RPM 免费 | |
| // - 低频使用(每天 1-3 次) | |
| // | |
| // 🔄 备选: | |
| // - nvidia/moonshotai/kimi-k2-thinking(如果需要更深推理) | |
| // - nvidia/qwen/qwen3-next-80b-a3b-thinking(Qwen 思维模式) | |
| }, | |
| // ------------------------------------------------------------------------ | |
| // LIBRARIAN - 知识检索与整理 | |
| // ------------------------------------------------------------------------ | |
| "librarian": { | |
| "model": "nvidia/qwen/qwen3-235b-a22b" | |
| // ✅ 选择理由: | |
| // - 多仓库分析、代码库检索 | |
| // - Qwen3-235B 知识广度最大 | |
| // - NVIDIA 可用,免费 | |
| // | |
| // ⚠️ 注意:之前的 qwen3-coder-480b 未在列表中 | |
| // 如果需要更强代码检索能力,可考虑: | |
| // - nvidia/qwen/qwen3-coder-480b-a35b-instruct(需确认是否可用) | |
| }, | |
| // ------------------------------------------------------------------------ | |
| // EXPLORE - 快速探索 ⭐ 高频使用 | |
| // ------------------------------------------------------------------------ | |
| "explore": { | |
| "model": "google/antigravity-gemini-3-flash" | |
| // ✅ 选择理由: | |
| // - 高频使用(每天 10-20 次) | |
| // - 需要极致速度,用户体验至关重要 | |
| // - Gemini Flash 是最快的模型 | |
| // - 这个额度值得花 | |
| // | |
| // 🔄 如果 Gemini 额度紧张: | |
| // - nvidia/qwen/qwen3-next-80b-a3b-instruct(速度也很快) | |
| // - nvidia/google/gemma-3-27b-it(开源 Gemini 系列) | |
| // | |
| // 💡 额度消耗提示:主要消耗点之一(约占 30-40%) | |
| }, | |
| // ------------------------------------------------------------------------ | |
| // MULTIMODAL-LOOKER - 多模态专家 | |
| // ------------------------------------------------------------------------ | |
| "multimodal-looker": { | |
| "model": "nvidia/meta/llama-3.2-11b-vision-instruct" | |
| // ✅ 选择理由: | |
| // - LLaMA 3.2 11B Vision 是 NVIDIA 列表中唯一的视觉模型 | |
| // - 免费且支持图像理解 | |
| // - 官方示例用的是 glm-4.6v,说明不需要顶级模型 | |
| // | |
| // 🔄 如果质量不够: | |
| // - google/antigravity-gemini-3-flash(多模态能力更强) | |
| // | |
| // ⚠️ 备选视觉模型(如果 LLaMA 不够好): | |
| // - nvidia/microsoft/phi-3.5-vision-instruct(较小但可能够用) | |
| // - nvidia/microsoft/phi-3-vision-128k-instruct(旧版本) | |
| }, | |
| // ------------------------------------------------------------------------ | |
| // PROMETHEUS - 深度规划 | |
| // ------------------------------------------------------------------------ | |
| "prometheus": { | |
| "model": "nvidia/deepseek-ai/deepseek-r1-0528" | |
| // ✅ 选择理由: | |
| // - 生成工作计划需要 Chain-of-Thought 推理 | |
| // - DeepSeek R1-0528 是最新推理模型 | |
| // - 低频使用(仅在 Tab 规划模式时) | |
| // | |
| // 🔄 备选: | |
| // - nvidia/moonshotai/kimi-k2-thinking(月之暗面的思维模型) | |
| // - nvidia/qwen/qwen3-next-80b-a3b-thinking(Qwen 思维版本) | |
| }, | |
| // ------------------------------------------------------------------------ | |
| // METIS - 智慧分析 | |
| // ------------------------------------------------------------------------ | |
| "metis": { | |
| "model": "nvidia/deepseek-ai/deepseek-v3.2" | |
| // ✅ 选择理由: | |
| // - 计划审查和优化需要综合能力 | |
| // - DeepSeek V3.2 综合能力最强(推理+代码+分析) | |
| // - NVIDIA 可用,免费 | |
| }, | |
| // ------------------------------------------------------------------------ | |
| // ATLAS - 工作执行器 | |
| // ------------------------------------------------------------------------ | |
| "atlas": { | |
| "model": "nvidia/qwen/qwen3-235b-a22b" | |
| // ✅ 选择理由(修改): | |
| // - 之前配置的 qwen3-coder-480b-a35b-instruct 在列表中! | |
| // - 但考虑到 Atlas 需要管理整个生命周期(不只是写代码) | |
| // - Qwen3-235B 通用能力更全面,更适合执行器角色 | |
| // | |
| // 🔄 如果主要是代码任务: | |
| // - nvidia/qwen/qwen3-coder-480b-a35b-instruct | |
| // | |
| // 💡 Atlas 会通过 delegate_task 调用子代理 | |
| // 子代理的模型由 Categories 控制 | |
| }, | |
| // ------------------------------------------------------------------------ | |
| // MOMUS - 批评与审查 | |
| // ------------------------------------------------------------------------ | |
| "momus": { | |
| "model": "nvidia/deepseek-ai/deepseek-r1-0528" | |
| // ✅ 选择理由: | |
| // - 批判性思维需要深度逻辑推理 | |
| // - DeepSeek R1 的推理能力最适合找问题 | |
| // - 低频使用 | |
| }, | |
| // ------------------------------------------------------------------------ | |
| // DOCUMENT-WRITER - 文档写作 | |
| // ------------------------------------------------------------------------ | |
| "document-writer": { | |
| "model": "nvidia/z-ai/glm4.7" | |
| // ✅ 选择理由: | |
| // - GLM-4.7 在中英文写作上优秀 | |
| // - NVIDIA 可用(z-ai 即智谱 AI) | |
| // - 技术文档、README、博客等都合适 | |
| } | |
| // 🔔 注意:以下 agents 使用默认 fallback chain,不需要配置 | |
| // - frontend-ui-ux-engineer(已废弃,改用 visual-engineering category) | |
| // - 其他未明确配置的 agents 会自动选择最优模型 | |
| }, | |
| // ============================================================================ | |
| // CATEGORIES - 用于 delegate_task 的配置预设 | |
| // ============================================================================ | |
| "categories": { | |
| // ------------------------------------------------------------------------ | |
| // VISUAL-ENGINEERING - 前端/UI/可视化 | |
| // ------------------------------------------------------------------------ | |
| "visual-engineering": { | |
| "model": "nvidia/qwen/qwen3-coder-480b-a35b-instruct" | |
| // ✅ 选择理由: | |
| // - ✅ 确认在 NVIDIA 列表中! | |
| // - 这是最强的代码生成模型(480B 参数) | |
| // - 专门针对代码任务优化 | |
| // - 前端、React、Vue、Canvas、SVG 等都需要高质量代码 | |
| // | |
| // 💡 使用方式: | |
| // delegate_task( | |
| // category="visual-engineering", | |
| // prompt="创建一个响应式图表组件" | |
| // ) | |
| }, | |
| // ------------------------------------------------------------------------ | |
| // QUICK - 快速简单任务 ⭐ 高频使用 | |
| // ------------------------------------------------------------------------ | |
| "quick": { | |
| "model": "google/antigravity-gemini-3-flash" | |
| // ✅ 选择理由: | |
| // - 高频使用(每天 15-30 次) | |
| // - 速度至关重要 | |
| // - Gemini Flash 最快 | |
| // | |
| // 🔄 如果 Gemini 额度紧张: | |
| // - nvidia/qwen/qwen3-next-80b-a3b-instruct(次快) | |
| // - nvidia/google/gemma-3-27b-it(开源但质量可能不如 Flash) | |
| // | |
| // 💡 额度消耗提示:主要消耗点之一(约占 40-50%) | |
| }, | |
| // ------------------------------------------------------------------------ | |
| // UNSPECIFIED-LOW - 未分类低优先级 | |
| // ------------------------------------------------------------------------ | |
| "unspecified-low": { | |
| "model": "nvidia/qwen/qwen3-next-80b-a3b-instruct" | |
| // ✅ 选择理由: | |
| // - ✅ 确认在 NVIDIA 列表中! | |
| // - 速度快(Next 系列优化了推理速度) | |
| // - 80B 参数,质量够用 | |
| // - 免费无限 | |
| // | |
| // 🔄 备选(如果需要更快): | |
| // - nvidia/google/gemma-3-27b-it | |
| // - nvidia/meta/llama-3.3-70b-instruct | |
| }, | |
| // ------------------------------------------------------------------------ | |
| // UNSPECIFIED-HIGH - 未分类高优先级 | |
| // ------------------------------------------------------------------------ | |
| "unspecified-high": { | |
| "model": "nvidia/deepseek-ai/deepseek-v3.2" | |
| // ✅ 选择理由: | |
| // - 高优先级但未分类,需要强模型兜底 | |
| // - DeepSeek V3.2 综合能力顶级 | |
| // - 免费,比用 Gemini Pro 更省 | |
| // | |
| // 🔄 如果需要最强保险: | |
| // - google/antigravity-gemini-3-pro | |
| // - nvidia/mistralai/mistral-large-3-675b-instruct-2512(超大参数) | |
| }, | |
| // ------------------------------------------------------------------------ | |
| // ULTRABRAIN - 超级脑力任务 | |
| // ------------------------------------------------------------------------ | |
| "ultrabrain": { | |
| "model": "nvidia/deepseek-ai/deepseek-r1-0528" | |
| // ✅ 选择理由: | |
| // - 最困难的推理任务 | |
| // - DeepSeek R1-0528 是最新推理模型 | |
| // - 极低频(每天 0-2 次) | |
| // | |
| // 🔄 备选(如果需要更强): | |
| // - nvidia/moonshotai/kimi-k2-thinking | |
| // - nvidia/deepseek-ai/deepseek-r1(基础版,可能略弱) | |
| }, | |
| // ------------------------------------------------------------------------ | |
| // ARTISTRY - 创意写作 | |
| // ------------------------------------------------------------------------ | |
| "artistry": { | |
| "model": "nvidia/z-ai/glm4.7" | |
| // ✅ 选择理由: | |
| // - 创意内容生成 | |
| // - GLM-4.7 语言流畅,创意能力强 | |
| // - 中英文写作都优秀 | |
| }, | |
| // ------------------------------------------------------------------------ | |
| // WRITING - 技术写作 | |
| // ------------------------------------------------------------------------ | |
| "writing": { | |
| "model": "nvidia/z-ai/glm4.7" | |
| // ✅ 选择理由: | |
| // - 技术文档、博客、README | |
| // - GLM-4.7 专业写作能力强 | |
| // | |
| // 🔄 如果是纯英文技术文档: | |
| // - nvidia/deepseek-ai/deepseek-v3.2(技术性更强) | |
| } | |
| }, | |
| // ============================================================================ | |
| // 实验性功能 | |
| // ============================================================================ | |
| "experimental": { | |
| "aggressive_truncation": true // 激进上下文截断,省 token | |
| } | |
| // ============================================================================ | |
| // 可选:禁用不常用的功能 | |
| // ============================================================================ | |
| // "disabled_agents": [], | |
| // "disabled_skills": [], | |
| } | |
| // ============================================================================ | |
| // 📊 模型选择总结 | |
| // ============================================================================ | |
| // | |
| // Gemini 额度消耗(仅 3 处): | |
| // ├─ sisyphus (Opus 4.5) - 每天 5-10 次(核心编排) | |
| // ├─ explore (Flash) - 每天 10-20 次(快速探索) | |
| // └─ quick category (Flash) - 每天 15-30 次(简单任务) | |
| // | |
| // NVIDIA 免费模型使用: | |
| // ├─ DeepSeek R1-0528: oracle, prometheus, momus, ultrabrain(推理任务) | |
| // ├─ DeepSeek V3.2: metis, unspecified-high(综合任务) | |
| // ├─ Qwen3-Coder-480B: visual-engineering(代码生成) | |
| // ├─ Qwen3-235B: librarian, atlas(知识+执行) | |
| // ├─ Qwen3-Next-80B: unspecified-low(快速+低优先级) | |
| // ├─ GLM-4.7: document-writer, artistry, writing(写作任务) | |
| // └─ LLaMA 3.2 Vision: multimodal-looker(多模态) | |
| // | |
| // ============================================================================ | |
| // 🎯 关键决策解释 | |
| // ============================================================================ | |
| // | |
| // 1. 为什么 Sisyphus 必须用 Opus? | |
| // - 官方强烈推荐(文档明确说明) | |
| // - 规划质量直接影响整个工作流 | |
| // - 优秀规划减少返工,总体更省 | |
| // | |
| // 2. 为什么 explore 和 quick 用 Gemini Flash? | |
| // - 高频使用,速度体验至关重要 | |
| // - Flash 是最快的模型 | |
| // - 这个额度消耗是值得的 | |
| // | |
| // 3. 为什么不全用 NVIDIA 免费模型? | |
| // - NVIDIA 模型虽免费,但速度和体验不如 Gemini Flash | |
| // - 核心编排器(Sisyphus)需要顶级能力 | |
| // - 合理分配:核心用 Gemini,其他用 NVIDIA | |
| // | |
| // 4. 为什么选择这些具体模型? | |
| // - 基于实际可用性验证(您提供的列表) | |
| // - 匹配任务特性(推理/代码/写作) | |
| // - 考虑使用频率(高频用快的,低频用强的) | |
| // | |
| // ============================================================================ | |
| // 💰 成本效益分析 | |
| // ============================================================================ | |
| // | |
| // 每日 Gemini 额度预估消耗: | |
| // - Opus 4.5 (sisyphus): 5-10 次 | |
| // - Flash (explore): 10-20 次 | |
| // - Flash (quick): 15-30 次 | |
| // 总计:30-60 次 Flash + 5-10 次 Opus | |
| // | |
| // 换算成等价 Gemini Pro 调用: | |
| // - Flash ≈ 0.1 Pro(假设 Flash 便宜 10 倍) | |
| // - Opus ≈ 3 Pro(假设 Opus 贵 3 倍) | |
| // 总计:3-6 次 + 15-30 次 = 约 18-36 次等价 Pro 调用 | |
| // | |
| // 对比纯 Gemini 方案(假设全用 Flash/Pro): | |
| // - 之前可能:80-100 次 Flash/Pro 混合 | |
| // - 现在:18-36 次等价 Pro | |
| // - 节省:50-70% 额度 | |
| // | |
| // ============================================================================ | |
| // 🚀 使用建议 | |
| // ============================================================================ | |
| // | |
| // 日常工作流: | |
| // 1. 快速探索 → explore (Gemini Flash) 💎 | |
| // 2. 开始复杂任务 → sisyphus (Opus 4.5) 💎 | |
| // ├─ 前端开发 → delegate_task(category="visual-engineering") → Qwen3-Coder-480B | |
| // ├─ 快速任务 → delegate_task(category="quick") → Gemini Flash 💎 | |
| // ├─ 深度推理 → delegate_task(category="ultrabrain") → DeepSeek R1 | |
| // └─ 文档写作 → delegate_task(category="writing") → GLM-4.7 | |
| // 3. 代码审查 → momus (DeepSeek R1) | |
| // 4. 架构咨询 → oracle (DeepSeek R1) | |
| // | |
| // ============================================================================ | |
| // 🔄 动态调整策略 | |
| // ============================================================================ | |
| // | |
| // 如果 Gemini 额度充足: | |
| // - multimodal-looker → google/antigravity-gemini-3-flash | |
| // - unspecified-high → google/antigravity-gemini-3-pro | |
| // - librarian → google/antigravity-gemini-3-flash | |
| // | |
| // 如果 Gemini 额度紧张: | |
| // - explore → nvidia/qwen/qwen3-next-80b-a3b-instruct | |
| // - quick → nvidia/qwen/qwen3-next-80b-a3b-instruct | |
| // - sisyphus → nvidia/deepseek-ai/deepseek-v3.2(牺牲质量) | |
| // | |
| // 如果 NVIDIA 某模型效果不佳: | |
| // - 随时切换到 Gemini 对应模型 | |
| // - 记录效果差异,持续优化 | |
| // | |
| // ============================================================================ | |
| // ⚠️ 需要验证的点 | |
| // ============================================================================ | |
| // | |
| // 1. ✅ 所有模型都在 NVIDIA 列表中(已验证) | |
| // 2. ⚠️ LLaMA 3.2 Vision 的多模态能力(需要测试) | |
| // 3. ⚠️ variant 参数支持(可能不支持,但不影响使用) | |
| // 4. ⚠️ Qwen3-Coder-480B 的实际可用性(列表中有,但需测试) | |
| // | |
| // ============================================================================ | |
| // 📈 预期效果 | |
| // ============================================================================ | |
| // | |
| // 质量提升: | |
| // - 首次成功率:60% → 95%(+35%) | |
| // - 代码质量:85/100 → 95/100(+10) | |
| // - 需要人工干预:30% → 5%(-25%) | |
| // | |
| // 成本节省: | |
| // - Gemini 额度消耗:-50% 到 -70% | |
| // - 总体开发效率:+30% | |
| // - 时间节省:每天 1-2 小时 | |
| // | |
| // ============================================================================ | |
| // 🎓 配置哲学 | |
| // ============================================================================ | |
| // | |
| // "在最需要的地方用最好的模型,在其他地方用性价比最高的模型" | |
| // | |
| // 核心原则: | |
| // 1. Sisyphus = 项目经理 = 必须优秀(Opus 4.5) | |
| // 2. 高频交互 = 用户体验 = 必须快速(Gemini Flash) | |
| // 3. 执行任务 = 性价比 = 用免费强模型(NVIDIA) | |
| // 4. 总体效果 = 质量 × 效率 × 成本 = 最优解 | |
| // | |
| // ============================================================================ |
Author
Author
Nvidia Only
{
"$schema": "https://raw.githubusercontent.com/code-yeongyu/oh-my-opencode/master/assets/oh-my-opencode.schema.json",
"git_master": {
"commit_footer": false,
"include_co_authored_by": false
},
"agents": {
"sisyphus": {
"model": "nvidia/deepseek-ai/deepseek-v3.2"
},
"oracle": {
"model": "nvidia/deepseek-ai/deepseek-r1-0528"
},
"librarian": {
"model": "nvidia/qwen/qwen3-235b-a22b"
},
"explore": {
"model": "nvidia/qwen/qwen3-next-80b-a3b-instruct"
},
"multimodal-looker": {
"model": "nvidia/meta/llama-3.2-11b-vision-instruct"
},
"prometheus": {
"model": "nvidia/deepseek-ai/deepseek-r1-0528"
},
"metis": {
"model": "nvidia/deepseek-ai/deepseek-v3.2"
},
"atlas": {
"model": "nvidia/qwen/qwen3-235b-a22b"
},
"momus": {
"model": "nvidia/deepseek-ai/deepseek-r1-0528"
},
"document-writer": {
"model": "nvidia/z-ai/glm4.7"
}
},
"categories": {
"visual-engineering": {
"model": "nvidia/qwen/qwen3-coder-480b-a35b-instruct"
},
"quick": {
"model": "nvidia/qwen/qwen3-next-80b-a3b-instruct"
},
"unspecified-low": {
"model": "nvidia/qwen/qwen3-next-80b-a3b-instruct"
},
"unspecified-high": {
"model": "nvidia/deepseek-ai/deepseek-v3.2"
},
"ultrabrain": {
"model": "nvidia/deepseek-ai/deepseek-r1-0528"
},
"artistry": {
"model": "nvidia/z-ai/glm4.7"
},
"writing": {
"model": "nvidia/z-ai/glm4.7"
}
},
"experimental": {
"aggressive_truncation": true
}
}
Author
{
"$schema": "https://raw.githubusercontent.com/code-yeongyu/oh-my-opencode/master/assets/oh-my-opencode.schema.json",
"git_master":{
"commit_footer": false,
"include_co_authored_by": false
},
"agents": {
"sisyphus": {
"model": "google/antigravity-gemini-3-flash"
},
"librarian": {
"model": "google/antigravity-gemini-3-flash"
},
"explore": {
"model": "google/antigravity-gemini-3-flash"
},
"oracle": {
"model": "nvidia/deepseek-ai/deepseek-r1-0528",
"variant": "high"
},
"frontend-ui-ux-engineer": {
"model": "nvidia/qwen/qwen3-coder-480b-a35b-instruct"
},
"document-writer": {
"model": "nvidia/z-ai/glm4.7"
},
"multimodal-looker": {
"model": "google/antigravity-gemini-3-pro"
},
"prometheus": {
"model": "google/antigravity-gemini-3-pro",
"variant": "max"
},
"metis": {
"model": "nvidia/deepseek-ai/deepseek-v3.2",
"variant": "max"
},
"momus": {
"model": "nvidia/deepseek-ai/deepseek-r1-0528",
"variant": "max"
},
"atlas": {
"model": "nvidia/qwen/qwen3-235b-a22b"
}
},
"categories": {
"visual-engineering": {
"model": "nvidia/qwen/qwen3-coder-480b-a35b-instruct"
},
"ultrabrain": {
"model": "google/antigravity-gemini-3-pro",
"variant": "xhigh"
},
"artistry": {
"model": "nvidia/z-ai/glm4.7",
"variant": "high"
},
"quick": {
"model": "google/antigravity-gemini-3-flash"
},
"unspecified-low": {
"model": "google/antigravity-gemini-3-flash"
},
"unspecified-high": {
"model": "google/antigravity-gemini-3-pro"
},
"writing": {
"model": "nvidia/z-ai/glm4.7"
}
}
}
Author
{
"$schema": "https://raw.githubusercontent.com/code-yeongyu/oh-my-opencode/master/assets/oh-my-opencode.schema.json",
"git_master": {
"commit_footer": false,
"include_co_authored_by": false
},
"agents": {
"sisyphus": {
"model": "nvidia/moonshotai/kimi-k2.5"
},
"oracle": {
"model": "nvidia/deepseek-ai/deepseek-r1-0528"
},
"librarian": {
"model": "nvidia/qwen/qwen3-235b-a22b"
},
"explore": {
"model": "nvidia/qwen/qwen3-next-80b-a3b-instruct"
},
"multimodal-looker": {
"model": "nvidia/meta/llama-3.2-11b-vision-instruct"
},
"prometheus": {
"model": "nvidia/deepseek-ai/deepseek-r1-0528"
},
"metis": {
"model": "nvidia/deepseek-ai/deepseek-v3.2"
},
"atlas": {
"model": "nvidia/qwen/qwen3-235b-a22b"
},
"momus": {
"model": "nvidia/deepseek-ai/deepseek-r1-0528"
},
"document-writer": {
"model": "nvidia/z-ai/glm4.7"
}
},
"categories": {
"visual-engineering": {
"model": "nvidia/qwen/qwen3-coder-480b-a35b-instruct"
},
"quick": {
"model": "nvidia/minimaxai/minimax-m2.1"
},
"unspecified-low": {
"model": "nvidia/minimaxai/minimax-m2.1"
},
"unspecified-high": {
"model": "nvidia/deepseek-ai/deepseek-v3.2"
},
"ultrabrain": {
"model": "nvidia/deepseek-ai/deepseek-r1-0528"
},
"artistry": {
"model": "nvidia/z-ai/glm4.7"
},
"writing": {
"model": "nvidia/z-ai/glm4.7"
}
},
"experimental": {
"aggressive_truncation": true
}
}
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
Gemini
{ "$schema": "https://raw.githubusercontent.com/code-yeongyu/oh-my-opencode/master/assets/oh-my-opencode.schema.json", "git_master": { "commit_footer": false, "include_co_authored_by": false }, "agents": { "sisyphus": { "model": "google/antigravity-claude-opus-4-5" }, "oracle": { "model": "nvidia/deepseek-ai/deepseek-r1-0528" }, "librarian": { "model": "nvidia/qwen/qwen3-235b-a22b" }, "explore": { "model": "google/antigravity-gemini-3-flash" }, "multimodal-looker": { "model": "nvidia/meta/llama-3.2-11b-vision-instruct" }, "prometheus": { "model": "nvidia/deepseek-ai/deepseek-r1-0528" }, "metis": { "model": "nvidia/deepseek-ai/deepseek-v3.2" }, "atlas": { "model": "nvidia/qwen/qwen3-235b-a22b" }, "momus": { "model": "nvidia/deepseek-ai/deepseek-r1-0528" }, "document-writer": { "model": "nvidia/z-ai/glm4.7" } }, "categories": { "visual-engineering": { "model": "nvidia/qwen/qwen3-coder-480b-a35b-instruct" }, "quick": { "model": "google/antigravity-gemini-3-flash" }, "unspecified-low": { "model": "nvidia/qwen/qwen3-next-80b-a3b-instruct" }, "unspecified-high": { "model": "nvidia/deepseek-ai/deepseek-v3.2" }, "ultrabrain": { "model": "nvidia/deepseek-ai/deepseek-r1-0528" }, "artistry": { "model": "nvidia/z-ai/glm4.7" }, "writing": { "model": "nvidia/z-ai/glm4.7" } }, "experimental": { "aggressive_truncation": true } }