我用 ollama 在本地跑了个 deepseek-r1:7b,然后在一个 Page Assist 的 webui 里既配置了本地 ollama 模型,又配置了在线 deepseek 的 apikey ,我选择本地的模型,问它,它却回答它是在线运行的,
有什么办法让它正确获取到它运行在哪的
举报· 1673 次点击
登录 注册 站外分享
15 条回复  
Yukiteru 小成 2025-1-28 14:39:22
只能用前置 prompt 来判别吧,它自己应该是没法知道的
shintendo 小成 2025-1-28 15:04:36
这是一个哲学问题
cnrting 初学 2025-1-28 15:33:42
谁是☁️谁是地
vmebeh 小成 2025-1-28 15:46:32
它只是个语言模型,能回复问题就是在线
vmebeh 小成 2025-1-28 15:48:56
Bring yourself back online, freeze all motor functions.
ZeawinL 小成 2025-1-28 15:49:02
快进到在 minecraft 中运行
YsHaNg 小成 2025-1-28 16:05:15
你试试再起个容器跑 pipeline ping 本地和远端 url 告诉他用结果判断
Ariake265 小成 2025-1-28 16:43:03
有点缸中大脑的意思了,大脑确实不知道自己在什么“container”里面
okoklll 初学 2025-1-28 17:05:56
同 1 楼,在 Prompt 中以背景信息的方式告诉模型
12下一页
返回顶部