0


在ubuntu24.04上安装Ollama并设置跨域访问

Ollama 是一个基于 Go 语言开发的简单易用的本地大模型运行框架。它同时支持Nvidia和AMD显卡,最主要的是国内下载模型的速度很快。

我们在前几期文章中介绍的lobechat,oneapi等应用,可以方便的利用ollama构建本地大模型运行平台。接下来我们就介绍如何构建ollama的运行平台。

设备构成:

1、Nvidia P40两片,32G内存。

2、ubuntu24.04操作系统。

具体安装过程如下:

一:安装Ollama

1、准备环境

  1. #安装gcc和g++
  2. sudo apt update
  3. sudo apt install gcc g++
  4. #安装make
  5. sudo apt install make
  6. sudo apt install make-guile

2、安装Nvidia驱动

  1. #编辑黑名单配置。
  2. vim /etc/modprobe.d/blacklist.conf
  3. #在文件的最后添加下面两行。
  4. blacklist nouveau
  5. options nouveau modeset=0
  6. #然后,输入下面的命令更新并重启。
  7. update-initramfs -u
  8. reboot
  9. #重启后输入下面的命令验证是否禁用成功,成功的话这行命令不会有输出。
  10. lsmod | grep nouveau
  11. #驱动安装
  12. #首先,使用apt卸载已有的驱动,命令如下。
  13. apt-get purge nvidia*
  14. #进入驱动所在路径,赋予执行权限,并执行安装命令
  15. chmod +x NVIDIA-Linux-x86_64-535.86.05.run
  16. ./NVIDIA-Linux-x86_64-535.86.05.run

3、安装cuda

  1. #下载cuda
  2. wget https://developer.download.nvidia.com/compute/cuda/12.4.0/local_installers/cuda_12.4.0_550.54.14_linux.run
  3. #安装cuda
  4. ./cuda_12.4.0_550.54.14_linux.run

设置环境变量

vim ~/.bashrc

在文件最下面加上这些

  1. PATH=$PATH:/usr/local/cuda/bin
  2. LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/cuda/lib64
  3. LIBRARY_PATH=$LIBRARY_PATH:/usr/local/cuda/lib64

使生效

  1. source ~/.bashrc

4、安装cudnn

下载cudnn(需要自己注册用户),下载地址如下:

cuDNN Archive | NVIDIA Developer

安装cudnn

  1. xz -d cudnn-linux-x86_64-8.9.4.25_cuda12-archive.tar.xz
  2. tar -xvf cudnn-linux-x86_64-8.9.4.25_cuda12-archive.tar
  3. cp /root/cudnn-linux-x86_64-8.9.4.25_cuda12-archive/include/cudnn.* /usr/local/cuda/include/
  4. cp /root/cudnn-linux-x86_64-8.9.4.25_cuda12-archive/lib/* /usr/local/cuda/lib64/
  5. chmod a+r /usr/local/cuda/include/cudnn*.h /usr/local/cuda/lib64/libcudnn*

5、安装python环境

  1. apt-get install python3 python3-pip

6、安装ollama

  1. curl -fsSL https://ollama.com/install.sh | sh

二:配置ollama跨域访问

  1. vim /etc/systemd/system/ollama.service

修改成下面这样

  1. [Unit]
  2. Description=Ollama Service
  3. After=network-online.target
  4. [Service]
  5. ExecStart=/usr/bin/ollama serve
  6. User=ollama
  7. Group=ollama
  8. Restart=always
  9. RestartSec=3
  10. Environment="OLLAMA_HOST=0.0.0.0"
  11. Environment="OLLAMA_ORIGINS=*"
  12. [Install]
  13. WantedBy=default.target

可以使用ollama --version再次确认安装是否成功。

重新加载systemd守护进程并启用Ollama服务

  1. sudo systemctl daemon-reload
  2. sudo systemctl enable ollama
  3. sudo systemctl start ollama

三:Ollama基本操作

1、下载模型

  1. ollama run llama3.1:8b

仅拉取镜像,但不运行

  1. ollama pull llama3.1:8b

2、删除模型

  1. #显示安装的模型列表
  2. ollama list
  3. #删除指定的模型
  4. ollama rm llama3.1:8b

3、卸载ollama

删除systemd中创建的ollama服务

  1. sudo systemctl stop ollama
  2. sudo systemctl disable ollama
  3. sudo rm /etc/systemd/system/ollama.service
  4. sudo systemctl daemon-reload

删除ollama的二进制文件

  1. sudo rm /usr/local/bin/ollama

删除用户和组

  1. sudo userdel ollama
  2. sudo groupdel ollama
标签: linux 服务器 ubuntu

本文转载自: https://blog.csdn.net/chengxuquan/article/details/142449545
版权归原作者 BBM的开源HUB 所有, 如有侵权,请联系我们删除。

“在ubuntu24.04上安装Ollama并设置跨域访问”的评论:

还没有评论