史上最简单open-webui安装方式
一、安装python3.11
这里需要注意,不要用python3.11以上的版本,否则会不兼容!!!
1、到python官网下载python3.11
链接:https://www.python.org/ftp/python/3.11.9/python-3.11.9-amd64.exe
2.双击安装包,开始安装,注意勾选[Add python 3.11 to Path]选项!!!
3.选择Customize install选项,建议把安装路径改为其他盘(注意!安装路径中不能有中文!!!)
二、测试python
1、按下win+r打开运行框,输入cmd,回车
2、在命令提示符中输入python
3、如果正确安装,将会显示:
3、输入exit()退出python
4、输入pip list,如果安装正确,将会显示:
三、pip换源
在cmd中输入:
pip config setglobal.index-url https://mirrors.aliyun.com/pypi/simple
四、安装open-webui
1、打开cmd,输入:
pip install open-webui
此时,我们会看到不断有新的包被安装
2、等待过程结束后,输入:
open-webui serve
不出意外的话,就要出意外了:
ERROR: can not connect to "http://hf-huggingface.co"is your computer offline?
五、解决can not connet问题
1、出现以上问题是因为国内访问国外网站信号不好
2、解决方案:
打开cmd,输入:
pip install open-webui==0.2.0
3、安装完成后,打开cmd输入:
open-webui serve
将会显示:
安装成功后,显示:
六、升级open-webui
打开cmd,输入:
pip install open-webui --upgrade
七、运行ollama+open-webui
1、打开cmd,输入:
ollama serve
2、打开另一个cmd,输入:
open-webui serve
3、访问链接:
open-webui
网站截图:
登陆界面截图:
八、docker安装open-webui
1.如果您的计算机上安装了Ollama,可以使用以下命令:
docker run -d -p 3000:8080--add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
2.如果Ollama在另一台服务器上,请使用以下命令:
连接到另一台服务器上的Ollama时,请将OLLAMA_BASE_URL更改为服务器的URL:
docker run -d -p 3000:8080-e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
要使用Nvidia GPU支持运行Open WebUI,请使用以下命令:
docker run -d -p 3000:8080--gpus all--add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
3.带有捆绑Ollama支持的Open WebUI安装
此安装方法使用一个单独的容器映像,将Open WebUI与Ollama捆绑在一起,通过单个命令实现简化设置。根据您的硬件设置选择适当的命令:
使用GPU支持:通过运行以下命令利用GPU资源
docker run -d -p 3000:8080--gpus=all-v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
版权归原作者 xianfianpan 所有, 如有侵权,请联系我们删除。