0


轻松搭建llama3Web 交互界面 - Ollama + Open WebUI

Ubuntu下安装:(官网:Download Ollama on Linux)

curl -fsSL https://ollama.com/install.sh | sh

就运行起来ollama了,不放心可以用ollama serve查看一下

ollama run llama3

就可以跑起来了,

那么我们肯定还是希望有chat界面,

使用https://github.com/open-webui/open-webui

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

出现下面这个界面就是open webui启动成功了:

默认注册的第一个用户是管理员

如果llama3出不来,那么把open webui停掉删掉,使用这个命令,第一句是停掉,第二句命令是删掉container:

docker stop open-webui

docker rm open-webui

ollama先执行,不要stop

重新执行这句命令,就ok了

docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main

标签: ollama open webui

本文转载自: https://blog.csdn.net/WASEFADG/article/details/138094420
版权归原作者 人工智能与大数据研究中心 所有, 如有侵权,请联系我们删除。

“轻松搭建llama3Web 交互界面 - Ollama + Open WebUI”的评论:

还没有评论