47 条回复  ·  5238 次点击
bitmin 小成 2025-8-14 17:20:41
Qwen3 Coder 30B Q4 本地用核显跑的也很快,算能用了 不过大多数时候还是 Augment + Github Copilot ( Free )
connecting 初学 2025-8-14 17:33:24
Qwen3-Coder 我觉得还行。但是我不是拿他写代码,是分析上下文给方案给分析。感觉比 GLM4.5 好。
raycool 小成 2025-8-14 17:43:32
我用灵码感觉挺不错的,都是一些数据分析的。
tyrone2333 小成 2025-8-14 17:47:31
这么多 qwen3-coder? 在哪里能用哇没找到插件
FrankFang128 小成 2025-8-14 17:50:19
@musi 看了 README 说是可以用 qwen-cli.js 支持 qwen-cli ,但还是不会配
Feeli 初学 2025-8-14 17:51:28
很简单的选择 有钱就用 AO 家的 没钱就用国内的千问 3 和智谱 glm4.5
Alias4ck 小成 2025-8-14 17:51:58
@tyrone2333 qwen-code 官方的 fork geminicli 就可以用
juane 初学 2025-8-14 17:55:07
Gemini CLI (Gemini 2.5pro) 不知道咋计量的,每天 100 的限量干不了啥就无了。
qaq13037 初学 2025-8-14 17:56:34
@musi 哪个平台的 api 有免费 2500 的请求,求告知
musi 初学 2025-8-14 17:56:35
@FrankFang128 因为不确定合不合法就没正式放出来,作为外部插件可以集成到 claude code 大概可以这么配置 { "transformers": [ { "path": "/Users/jinhxxxuilee/.claude-code-router/plugins/gemini-cli.js", "options": { "project": "xxx" } }, { "path": "/Users/xxx/.claude-code-router/plugins/qwen-cli.js" } ], "Providers": [ { "name": "gemini-cli", "api_base_url": "https://cloudcode-pa.googleapis.com/v1internal", "api_key": "sk-xxx", "models": ["gemini-2.5-flash", "gemini-2.5-pro"], "transformer": { "use": ["gemini-cli"] } }, { "name": "qwen-cli", "api_base_url": "https://portal.qwen.ai/v1/chat/completions", "api_key": "sk-xxx", "models": ["qwen3-coder-plus"], "transformer": { "use": ["qwen-cli", "enhancetool"] } } ], "Router": { "default": "qwen-cli,qwen3-coder-plus", "background": "gemini-cli,gemini-2.5-flash", "think": "modelscope,Qwen/Qwen3-235B-A22B-Thinking-2507", "longContext": "gemini-cli,gemini-2.5-pro", "longContextThreshold": 120000, "webSearch": "gemini-cli,gemini-2.5-flash" } }
返回顶部