Ollama安装运行
Ollama容器拉取
docker pull ollama/ollama
Ollama容器CPU运行
docker run -d--restart=always -v /home/docker/ollama:/root/.ollama -p11434:11434 --name ollama ollama/ollama
Ollama容器GPU运行
# nvidia-container-runtime-script.shsudocurl-s-L https://nvidia.github.io/nvidia-container-runtime/gpgkey |\sudo apt-key add -
distribution=$(. /etc/os-release;echo $ID$VERSION_ID)sudocurl-s-L https://nvidia.github.io/nvidia-container-runtime/$distribution/nvidia-container-runtime.list |\sudotee /etc/apt/sources.list.d/nvidia-container-runtime.list
sudoapt-get update
运行上述指令
##运行等待事件较长sudosh nvidia-container-runtime-script.sh
##要想成功执行这句,必须把源做好。sudoapt-getinstall nvidia-container-runtime
#验证which nvidia-container-runtime
#重启dockersudo systemctl restart docker#指定gpu模板docker run -it--gpus'"device=0,2"' --shm-size 32g image_name:tag_name
docker run --gpus all -d-v /your/path/docker/ollama:/root/.ollama -p11435:11435 --name ollama-gpu ollama/ollama
Open WebUI安装运行
Open WebUI容器拉取
docker pull ghcr.io/open-webui/open-webui:main
Open WebUI容器运行
docker run -d -p 3000:8080--add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Open WebUI端口重定向
这一步是为了在windows端可以访问
ssh-N-L3000:localhost:3000 [email protected]
容器删除
dockerps-l#会返回CONTAINER ID,假设ed01c65da2cfdockerrm ed01c65da2cf
用户添加到docker用户组
## 将登陆用户加入到docker用户组中sudo gpasswd -a$USERdocker# 更新用户组
newgrp docker
错误解决
sudoapt-getinstall-y nvidia-docker2 Reading package lists... Done
Building dependency tree Reading state information... Error! E:
Unable to parse package file /var/lib/apt/extended_states (1)
extended_states 做好备份,删除这个文件后,执行
sudoapt-get update
open webui非容器安装
环境准备
[nodejs最新版](https://nodejs.cn/download/current/)npm-ginstall [email protected]
npm config set prefix "D:\Program Files\nodejs\node_global"npm config set cache "D:\Program Files\nodejs\node_cache"npm config setregistry=http://registry.npm.taobao.org
安装
git clone https://github.com/open-webui/open-webui.git
cd open-webui/
# Copying required .env filecp-RPp .env.example .env
# Building Frontend Using Nodenpm i
npm run build
# Serving Frontend with the Backendcd ./backend
pip install-r requirements.txt -Ubash start.sh
Ollama非容器安装
一句话安装命令
curl-fsSL https://ollama.com/install.sh |sh
创建用户
sudouseradd-r-s /bin/false -m-d /usr/share/ollama ollama
在 /etc/systemd/system/ollama.service 中创建一个服务文件:
这个文件也是启动时候执行的命令,可以指定ollama所需要的一切参数。
[Unit]Description=Ollama Service
After=network-online.target
[Service]ExecStart=/usr/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3Environment="OLLAMA_NUM_PARALLEL=4"#并行处理请求的数量Environment="OLLAMA_MAX_LOADED_MODELS=4"#同时加载的模型数量Environment=OLLAMA_MODELS="/docker/ollama/models/"Environment="OLLAMA_FLASH_ATTENTION=true"Environment="OLLAMA_KEEP_ALIVE=-1"Environment="OLLAMA_ORIGINS=*"[
Install]WantedBy=default.target
启动服务:
sudo systemctl daemon-reload
sudo systemctl enable ollama
启动 Ollama
使用 systemd 启动 Ollama:
sudo systemctl start ollama
# 重启sudo systemctl restart ollama
更新
通过再次运行安装脚本来更新 ollama:
curl-fsSL https://ollama.com/install.sh |sh
查看日志
要查看作为启动服务运行的 Ollama 的日志,请运行:
journalctl -u ollama
移除 ollama 服务
sudo systemctl stop ollama
sudo systemctl disable ollama
局域网访问
exportOLLAMA_HOST=192.168.1.3
systemctl start firewalld
firewall-cmd --zone=public --add-port=11434/tcp --permanent
firewall-cmd --reload
版权归原作者 深度学习视觉 所有, 如有侵权,请联系我们删除。