0


解决Docker中使用 Open WebUI识别不到本地ollama中的模型

  1. 识别不到本地ollama中模型的原因:

Docker中的Open WebUI没有连接到本地ollama的端口。

原来我运行的命令是:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

查看日志会发现如下报错:

报错出现的原因:

该命令会连接默认的端口号,但是本地ollama的端口号已经被我改为8000了,这需要我们修改Docker中的Open WebUI连接的端口号。

解决:

用-e命令覆盖原本的OLLAMA_BASE_URL地址和端口,运行命令docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -e OLLAMA_BASE_URL=IPv4地址:你修改的ollama端口号 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

这里用局域网的IPv4地址的原因是:

确保 Docker 容器可以访问宿主机的

127.0.0.1:8000

。因为

127.0.0.1

是容器内部的环回地址,它无法直接访问宿主机的

localhost

。这意味着容器尝试连接自己的

127.0.0.1:8000

,而不是宿主机的。

一定要注意修改为你ollama的端口号!!!

所以我们直接用局域网的ip区分容器内部的环回地址。

最后可以识别本地ollama运行的模型:

  1. 如果你没有配置 Ollama on Windows的环境变量,请细看本小点。

我们需要对「环境变量」进行一些自定义配置:

2.1 使用

Windows + R

快捷键打开「运行」对话框,输入以下命令,然后按

Ctrl + Shift + Enter

以管理员权限打开「环境变量」配置窗口。

C:\Windows\system32\rundll32.exe sysdm.cpl, EditEnvironmentVariables

2.2 在「用户变量」中,根据需要添加以下环境变量。

2.2.1 更改 Ollama API 访问地址和侦听端口

Ollama API 的默认访问地址和侦听端口是

http://localhost:11434

,只能在装有 Ollama 的系统中直接调用。如果要在网络中提供服务,请修改 API 的侦听地址和端口:

  • 变量名:OLLAMA_HOST
  • 变量值(端口)::8000

只填写端口号可以同时侦听(所有) IPv4 和 IPv6 的

:8000

端口。

这里的端口号可以自行设置!

2.2.2 允许浏览器跨域请求

Ollama 默认只允许来自

127.0.0.1

0.0.0.0

的跨域请求,如果你计划在 LoboChat 等前端面板中调用 Ollama API,建议放开跨域限制

  • 变量名:OLLAMA_ORIGINS
  • 变量值:*

2.2.3 重启 Ollama 并测试 API 访问

(1)在「开始」菜单中找到并重新启动 Ollama。

(2)右键点击系统托盘中的 Ollama 图标,选择「View log」打开命令行窗口。

(3)分别执行以下命令,查看新配置的环境变量是否生效:
echo %OLLAMA_HOST%
echo %OLLAMA_ORIGINS%

2.3 浏览器中访问 Ollama API 地址和端口,验证访问是否正常。

3.配置完之后可以开始前面的解决问题的步骤

标签: docker 容器 ui

本文转载自: https://blog.csdn.net/qq_63604803/article/details/142459613
版权归原作者 一叶青枫 所有, 如有侵权,请联系我们删除。

“解决Docker中使用 Open WebUI识别不到本地ollama中的模型”的评论:

还没有评论