0


Open WebUI识别不到本地ollama中的模型

问题描述:

先安装了ollama,然后从docker安装了Open WebUI。启动Open WebUI后,找不到ollama中已经下好的模型。

解决:

换一个启动命令

docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always open-webui:latest

打开open-webui:http://localhost:8080

参考:issue with open-webui not listing the models of ollama · open-webui/open-webui · Discussion #4376 · GitHub

标签: 语言模型

本文转载自: https://blog.csdn.net/BumpsTiger/article/details/141324774
版权归原作者 sp-kurisu 所有, 如有侵权,请联系我们删除。

“Open WebUI识别不到本地ollama中的模型”的评论:

还没有评论