Ubuntu下安装:(官网:Download Ollama on Linux)
curl -fsSL https://ollama.com/install.sh | sh
就运行起来ollama了,不放心可以用ollama serve查看一下
ollama run llama3
就可以跑起来了,
那么我们肯定还是希望有chat界面,
使用https://github.com/open-webui/open-webui
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
出现下面这个界面就是open webui启动成功了:
默认注册的第一个用户是管理员
如果llama3出不来,那么把open webui停掉删掉,使用这个命令,第一句是停掉,第二句命令是删掉container:
docker stop open-webui
docker rm open-webui
ollama先执行,不要stop
重新执行这句命令,就ok了
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
版权归原作者 人工智能与大数据研究中心 所有, 如有侵权,请联系我们删除。