设为首页
收藏本站
开启辅助访问
全部
问与答
创意
技术
酷工作
生活
交易
资源
节点
飞墙
Follow
明白贴
影视
报酬
登录
注册
飞社-令人惊奇的创意工作者社区-
›
首页
›
V2EX 站点状态
›
20241230 - vLLM + Qwen2.5-Coder-32B-Instruct 驱动的 ...
FSHEX=FIND+SHARE+EXPRESS
飞社-令人惊奇的创意工作者社区- 是一个关于发现分享表达的地方
现在登录
没有账号?
立即注册
推荐主题
›
上海 7 年后端求捞,有老哥可以内推下吗
›
今年的火车票是真的难买
›
大佬们,一人出一道前端面试题,年后准备跳
›
不去折腾都不知道云游戏现在多先进了
›
byd 官网更新了,更加国际化和现代化了,充
今日热议主题
AI 在 BI 领域的发展前景
如何看待美国的 AI stargate 项目?我们普
Homepod 国区账号总会提示“抱歉音乐出了点
上海国补来了,京东体验店购入小米 15Pro(
折叠手机一定要保护好内屏
有没有很讨厌“取悦”这个词的?
求助各位 电信送的 ap 面板和自己的路由器
请教 rust 如何做到交叉编译
出一台拓竹 p1sc 温州地区f友原价出 3500
最后几天班,一人一个摸鱼小技巧
20241230 - vLLM + Qwen2.5-Coder-32B-Instruct 驱动的新的标签系统
Livid
· 2024-12-30 16:35:03 · 630 次点击
FSHEX 除了节点之外,也会根据主题内容生成 3 个 tag 。
之前这个系统用的是 Boson NLP 提供的服务,不过他们后来停止了这个 API 服务。
然后这件事情就搁置了一段时间。
最近用 vLLM 部署了 Qwen2.5-Coder-32B-Instruct ,然后尝试用 prompt 的方式来为主题生成标签。虽然某些时候会产生无限循环,但是大部分情况下效果很不错。
目前大概 2 - 3 秒可以分析完一个主题并生成 3 个 tag 。
举报
·
630 次点击
登录
注册
站外分享
微信扫一扫
QQ分享
微博分享
豆瓣分享
复制链接
显示全部
|
最新评论
5 条回复
沙发
Tubbs
小成
2024-12-30 16:36:38
vLLM 部署确实很方便,用的什么设备部署的呢?
板凳
yangyaofei
初学
2024-12-30 16:45:57
可以用 guided 参数让模型输出固定格式的内容 https://docs.vllm.ai/en/latest/usage/structured_outputs.html, 在加上两部输出(先输出标签格式随意, 输出内容用 LLM 再格式化为 json), 可以获得很好的效果, 当然 prompt 和模型够强够好一部也没问题. 还有, 我好奇为啥用 coder
地板
Donaldo
小成
2024-12-30 16:47:53
同一张卡,同一个 CUDA 版本,vllm 我实测比 ollama 快几个 token/s 。
5#
Livid
楼主
初学
2024-12-30 16:51:21
@yangyaofei 也试过 Llama 和 QwQ-32B-Preview Llama 会在输入是中文内容的情况,依然给出英文结果。 QwQ 的输出结果大部分情况下太自由发挥了。 Qwen2.5-Coder 的结果是最稳定的。 Google 的 Gemini 2.0 效果也很好,但是免费额度和频率限制不太够用。
6#
Livid
楼主
初学
2024-12-30 16:52:16
另外一个考虑就是因为这里大部分的内容,估计和 Coder 的训练内容也是重合的。
返回顶部