领导要求将大模型部署到无 GPU 的机房服务器,模型规模为个位数 B (如 7B ),后续会处理输出过来的信息。 领导明确不要 Ollama ,用啥部署呢?求推荐

举报· 103 次点击
登录 注册 站外分享
快来抢沙发
0 条回复  
返回顶部