设为首页
收藏本站
开启辅助访问
全部
问与答
创意
技术
酷工作
生活
交易
节点
飞墙
Follow
明白贴
工算小助手
登录
注册
飞社-令人惊奇的创意工作者社区-
›
首页
›
程序员
›
自己部署 GLM4.7 或者 MiniMax2.1,能接入 Claude code ...
FSHEX=FIND+SHARE+EXPRESS
飞社-令人惊奇的创意工作者社区- 是一个关于发现分享表达的地方
现在登录
没有账号?
立即注册
推荐主题
›
同事刮刮乐中了 100 万
›
AI 都那么强了,传统的学校教育价值是不是
›
同事用了 cc 直接一把梭,现在让我改 bug,
›
请教各位什么是技术管理?忙一年发现没干技
›
结束北漂后在郑州从事二道贩子的年终总结 -
今日热议主题
关于公司内部 AI Agent 的应用情况
美团饭卡非常之不划算,小心踩坑
建议给所有需要公网暴露的 web 服务套一层
写了一个漫画风格可爱 ai 图片生成器
如何看待最近币圈的行情
便携屏 有推荐的吗
这一年玩过的刺激项目
2026 年了,为什么我依然认为 Rust 是过度
openAi 把我的账号封了,怎么搞。
新到的神州租车券 200 无门槛优惠券,有需
显示全部
|
最新评论
37 条回复
·
3993 次点击
11#
gorvey
小成
2026-1-20 15:20:04
@autumncry #6 至少接口适配肯定做了不少额外的工作,因为 claude 接口风格和 openai 是不一样的,对话模型一般都是兼容 openai 的
12#
autumncry
楼主
初学
2026-1-20 15:21:07
@Solix 有充足的资源部署。这个一秒几十次的请求,和模型可容纳的最大并发请求数量有关么? @urlk 后端适配是指在模型部署的时候,需要支持 openai 接口是么?也就是如果能用 openai 的方式 curl 通,就可以接入 cc 或者 opencode 是么? @Mumu2580 其实我用 opencode 免费 zen 模式的 glm4.7 和 minimax2.1 感觉质量可以的,我们可能不会涉及到特别复杂的项目,日常开发这两个模型完全可以 cover 了
13#
Solix
初学
2026-1-20 15:29:44
@autumncry #11 有关系呀,一秒几十次请求模型,每个请求都带着 token ,你算算是多大的量,另外 glm code 套餐和 minimax 的 code 套餐都没有明确说并发,这都是黑盒,你只能自己算,至少一个 H200 是不够的
14#
autumncry
楼主
初学
2026-1-20 15:30:06
@gorvey 其实如果只是接口适配做了变化都好说,因为接口可以中转,但是如果权重不一样,那代码能力指定是大打折扣的
15#
autumncry
楼主
初学
2026-1-20 15:32:31
@Solix 哎看来是只能自己淌了,这些确实都不清楚。其实资源倒是好说,我们预算有至少 2 台 H800 8 卡服务器,还可以协调更多,主要还是担心开源模型并不是 coding plan 里的模型
16#
zhouu
小成
2026-1-20 15:39:16
可以接入啊,vllm 、ollama 、llama-server 都是开箱即用支持 Anthropic 风格的`/v1/messages`API 的
17#
pandaPapa
小成
2026-1-20 15:43:46
这得几百万?
18#
utwo
初学
2026-1-20 16:58:22
https://build.nvidia.com/正好有 GLM4.7 和 MiniMax2.1 两个大模型的免费 API 调用。没用过的朋友可以把 API 接入 cherry studio 试用一下,和最好的商用还是有差距,但是已经能解决很多问题了。
19#
defunct9
初学
2026-1-20 17:23:41
厉害啊,真想去楼主公司试试部署模型自己跑,那真太爽了
20#
defunct9
初学
2026-1-20 17:24:29
https://rendoumi.com/posts/20260120-nvidia_claudecode/ nvidia 直接接入 claude code
下一页 »
1
2
3
4
/ 4 页
下一页
返回顶部