14 条回复  ·  1549 次点击
mumbler 小成 4 天前
@vagranth #9 你自建的 Ollama ,那算力谁提供呢,你提供?还是用户本地部署
vagranth 楼主 小成 4 天前
@mumbler 用户本地部署
xuld 小成 4 天前
如果是卖 api ,那就只能卖给程序员。 如果你说你前几天写了一个自己用,意思是:写几天就搞定了。 那请问程序员为什么不自己花几天时间搞定,而要买你的东西。 这就好比让钢琴家花钱听别人弹钢琴,你觉得可能有人付费吗
shewhen 小成 4 天前
@vagranth #7 本地的 OLLMA 性能不强,翻译准确性不如直接复制出来找 gpt 了。。
maymay5 小成 4 天前
门槛太低,这个你即便是开源出来,用的人也不会多,收费那就更加没人了,To C 干不过 Pot 、Bob 这类,To B 他们可能不会去选择通用翻译,而是买有道这些大厂的专门用于垂直领域的专用翻译 API ,因为 To B 不需要通用,LLM 特点就是通用~
12
返回顶部