问一个大模型本地部署的问题

sakujo · 2025-1-30 15:23:12 · 418 次点击

在 pc 上跑了 ollama ,想在软路由的 docker 上布置个 open-webui 供家里其他设备使用。部署好了,但是 open-webui 一直找不到模型。 我确定 ollama 的服务搭的没问题,环境变量也改了,在局域网的其他机器上都能访问到。 open-webui 的 ollama 设置里也改成了 pcip:11434,但 open-webui 就是连接不到 ollama ,有没有懂得麻烦给指导一下

举报· 418 次点击
登录 注册 站外分享
3 条回复  
andy20160606 初学 2025-1-30 15:32:21
11434 端口 是不是没打开,把防火墙先关掉试试呢
sakujo 楼主 小成 2025-1-30 15:34:18
@andy20160606 #1 应该是没问题,我在局域网其他设备上访问 pcip:11434 ,都能显示 Ollama is running
gaobh 小成 2025-1-30 15:55:39
在不在一个网段
返回顶部