Ollama下载慢解决思路
参考文章:https://defagi.com/ai-case/ollama-installation-guide-china/
在这篇文章中的最后修改下载地址中,由于目前ollama最新版在0.3.5所以对应的路径需要进行修改v0.3.2修改为v0.3.6,关于ollama最新版本,可以上GitHub 查看:https://github.com/ollama/ollama?tab=readme-ov-file
原文里面没有考虑你的系统,原文和本人均为AMD64 Linux系统,如果是其他系统,请注意修改连接地址否则不可用。这里提供另一个好用的GitHub加速
https://gh.api.99988866.xyz/
在 Linux 上修改 Ollama 模型路径
找到你的新模型路径:
假设你想将模型存储在 /new/path/to/models。
编辑 systemd 服务文件:
需要修改 Ollama 的 systemd 服务文件以设置 OLLAMA_MODELS 环境变量。
下面展示一些
内联代码片
。
#编辑systemctl ollama配置文件sudo systemctl edit ollama.service
添加环境变量:
在编辑器中,添加以下内容:
[Service]Environment="OLLAMA_MODELS=/new/path/to/models"
重新加载 systemd 并重启 Ollama:
sudo systemctl daemon-reload
sudo systemctl restart ollama
使用ollama list 查看模型是否加载成功
在 Docker 容器中修改 Ollama 模型路径
在 Docker 容器中运行 Ollama,可以通过以下方法设置模型路径:
启动容器时指定挂载路径:
启动容器时,使用 -e 参数设置 OLLAMA_MODELS 环境变量,并将你的新路径挂载到容器中。
sudodocker run --gpus all -d-v /new/path/to/models:/root/.ollama -p11434:11434 --name ollama -eOLLAMA_MODELS=/root/.ollama ollama/ollama
版权归原作者 Flandre_Remilia 所有, 如有侵权,请联系我们删除。