为什么这些大模型 API 都不提供临时 API KEY

tt83 · 2025-10-15 13:53:01 · 3126 次点击
永久 API KEY 只敢放在服务端或者个人使用。

通过服务端下发临时 API KEY 到客户端,用户本地直接请求大模型 API ,不仅能减轻服务端压力,也能提高用户端响应速度。

云厂商的对象存储一直都这么做,为什么现在这些大模型厂商都简单粗暴就搞一个永久 API KEY 也不能通过 API 来更新?
举报· 3126 次点击
登录 注册 站外分享
29 条回复  
tt83 楼主 小成 2025-10-15 13:55:17
像阿里云和火山是支持的,但是他们的大模型没有像硅基流动这种全,更新也不太及时
jybox 初学 2025-10-15 14:00:20
对象存储这么做是因为大文件需要直传,但 LLM 的数据量没有那么大吧,相比于 LLM 本身的计算量和耗时,在服务端转发一遍可以忽略不计。
jybox 初学 2025-10-15 14:01:35
然后对象存储的临时签名只有上传或者读取文件一种权限,LLM 的话那岂不是客户端可以运行任意的 prompt 了?如果要对 prompt 做限制/做模板,这个复杂度还不如从后端转发一下。
vacuitym 小成 2025-10-15 14:03:55
你可以用 api 生成和销毁 key
tt83 楼主 小成 2025-10-15 14:05:09
@jybox #2 数据没那么大,但是一次长请求要占用很长时间,限制/模板都可以在客户端做
tt83 楼主 小成 2025-10-15 14:06:34
@vacuitym api 生成和销毁 key 也有很多厂商不支持,只能手动操作,甚至还有限定重置次数的,离谱
tt83 楼主 小成 2025-10-15 14:07:19
@jybox #2 另外对服务端流量带宽影响也不小吧
spritecn 初学 2025-10-15 14:12:36
对象存储也不是一开始就有这东西的吧
ZeroClover 小成 2025-10-15 14:20:51
因为你说的这些问题在快速增长的 AI 风口面前不值一提,这些 AI 公司不会优先考虑这个的 不过主流大模型基本都可以通过云来调用,所以也可以变相解决
123下一页
返回顶部