0


Ollama 结合 Open-WebUI 在本地运行大语言模型

Ollama 结合 Open-WebUI 在本地运行大语言模型

本文介绍了如何使用 Ollama 在本地运行大型语言模型,以及利用 Open-WebUI 提供的图形化界面与大语言模型进行交互。

  • 一、Ollama 简介
  • 二、Docker安装 Ollama
  • 三、Open-WebUI
  • 四、文档链接

一、Ollama 简介

Ollama 是一个开源框架,专门设计用于在本地运行大型语言模型(LLM)。它的主要特点和功能如下:

  • 简化部署:Ollama 旨在简化在 Docker 容器中部署 LLM 的过程,使得管理和运行这些模型变得更加容易。安装完成后,用户可以通过简单的命令行操作启动和运行大型语言模型。例如,要运行 Gemma 2B 模型,只需执行命令 ollama run gemma:2b
  • 捆绑模型组件:它将模型权重、配置和数据捆绑到一个包中,称为 Modelfile,这有助于优化设置和配置细节,包括 GPU 使用情况。
  • 支持多种模型:Ollama 支持多种大型语言模型,如 Llama 2、Code Llama、Mistral、Gemma 等,并允许用户根据特定需求定制和创建自己的模型。
  • 跨平台支持:支持 Windows、macOS 和 Linux 平台。安装过程简单,用户只需访问 Ollama 的官方网站下载相应平台的安装包即可。

二、Docker安装 Ollama

选择Deep Learning类型的AMI,这个类型的AMI已经预先安装了英伟达的驱动。

选择

g4dn.xlarge

类型实例,带有1个NVIDA T4显卡,共有16GB GPU,这是带有英伟达显卡最便宜的实例。这个AMI已经预装了docker包,如果没有安装的Ubuntu系列系统,可以通过下面命令安装。

apt update -y
apt install docker -y
systemctl start docker

拉取ollama docker镜像(依赖网速,2-3分钟左右)

docker pull ollama/ollama

查看镜像文件,镜像大概2GB左右。

~# docker images
REPOSITORY      TAG       IMAGE ID       CREATED        SIZE
ollama/ollama   latest    d5cbea22fd07   30 hours ago   1.98GB

根据Docker Hub ollama主页 https://hub.docker.com/r/ollama/ollama [1],快速启动容器,注意,**这里没有添加GPU参数,是通过

CPU

加载启动的**。

~# docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

查看容器状态。

root@ip-172-31-83-158:~# docker ps
CONTAINER ID   IMAGE           COMMAND               CREATED         STATUS         PORTS                                           NAMES
e43072764685   ollama/ollama   "/bin/ollama serve"   6 seconds ago   Up 5 seconds   0.0.0.0:11434->11434/tcp, :::11434->11434/tcp   ollama

在docker容器内运行模型(1分钟左右拉起来)。

root@ip-172-31-83-158:~# docker exec -it ollama bash

root@e43072764685:/# ollama run qwen2:0.5b
>>> 你叫什么?
我叫通义千问。

新开一个SSH窗口,在模型回答问题时,查看通过

top

命令,查看CPU使用率,可以看到CPU已经满负荷运行了,正在使用CPU进行推理。

top - 08:41:19 up  5:14,  4 users,  load average: 0.32, 0.25, 0.13
Tasks: 161 total,   3 running, 158 sleeping,   0 stopped,   0 zombie
%Cpu(s): 31.9 us,  0.2 sy,  0.0 ni, 67.9 id,  0.0 wa,  0.0 hi,  0.0 si,  0.1 st
MiB Mem :  15779.1 total,   1575.5 free,    518.2 used,  13685.4 buff/cache
MiB Swap:      0.0 total,      0.0 free,      0.0 used.  14806.4 avail Mem

    PID USER      PR  NI    VIRT    RES    SHR S  %CPU  %MEM     TIME+ COMMAND
   7080 root      20   0 1067764 442088 344752 R 123.3   2.7   0:17.46 ollama_llama_se
   7006 root      20   0 2365904 400032 389632 S   1.0   2.5   0:13.81 ollama
   6986 root      20   0 1238716  13636   9856 S   0.7   0.1   0:00.23 containerd-shim

通过

ollama list

命令,查看下载的所有模型。

root@e43072764685:/# ollama list
NAME            ID              SIZE    MODIFIED
qwen2:0.5b      6f48b936a09f    352 MB  About a minute ago

在模型回答问题时,通过

nvidia-smi

命令查看GPU使用情况,通过CPU进行推理时,看到并没有暂用GPU资源。

root@ip-172-31-83-158:~# nvidia-smi
Fri Jul  5 08:41:38 2024
+---------------------------------------------------------------------------------------+
| NVIDIA-SMI 535.183.01             Driver Version: 535.183.01   CUDA Version: 12.2     |
|-----------------------------------------+----------------------+----------------------+
| GPU  Name                 Persistence-M | Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp   Perf          Pwr:Usage/Cap |         Memory-Usage | GPU-Util  Compute M. |
|                                         |                      |               MIG M. |
|=========================================+======================+======================|
|   0  Tesla T4                       On  | 00000000:00:1E.0 Off |                    0 |
| N/A   33C    P8               9W /  70W |      2MiB / 15360MiB |      0%      Default |
|                                         |                      |                  N/A |
+-----------------------------------------+----------------------+----------------------+

+---------------------------------------------------------------------------------------+
| Processes:                                                                            |
|  GPU   GI   CI        PID   Type   Process name                            GPU Memory |
|        ID   ID                                                             Usage      |
|=======================================================================================|
|  No running processes found                                                           |
+---------------------------------------------------------------------------------------+

删除容器。

root@ip-172-31-83-158:~#  docker rm -f ollama
ollama

重启启动ollama容器,通过GPU启动。

root@ip-172-31-83-158:~# docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
b094349fc98c8dee31640485ed88ecef38202e33baadcbb9d503ecc1055ac974

Ollama 环境变量

通过下面命令,ollama可以加载环境变量,可以根据实际需求决定是否添加对应的环境变量。

docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama --restart always -e OLLAMA_KEEP_ALIVE=-1 ollama/ollama

ollama常用环境变量:

  •   OLLAMA_KEEP_ALIVE=-1,模型加载后,默认的Keepalive是5分钟,修改为-1可以让模型持续启动,OLLAMA_KEEP_ALIVE=60 表示 60 秒,OLLAMA_KEEP_ALIVE=10m 表示10分钟。https://github.com/ollama/ollama/pull/3094     
    
  •   OLLAMA_ORIGINS=*,跨域访问环境变量,可以用与沉浸式翻译。     
    

Ollama 升级

ollama升级过程参考,停止容器后,重新拉取容器启动即可。

root@ip-172-31-83-158:~# docker exec -it ollama bash
root@3d1be8deba41:/# ollama -v
ollama version is 0.1.40

(base) root@ip-172-31-79-195:~# docker pull ollama/ollama
Using default tag: latest
latest: Pulling from ollama/ollama
7646c8da3324: Pull complete
d1060ab4fb75: Pull complete
e58f7d737fbb: Pull complete
Digest: sha256:4a3c5b5261f325580d7f4f6440e5094d807784f0513439dcabfda9c2bdf4191e
Status: Downloaded newer image for ollama/ollama:latest
docker.io/ollama/ollama:latest

(base) root@ip-172-31-79-195:~# docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 -e OLLAMA_ORIGINS=* --name ollama --restart always  ollama/ollama

root@46648320fcd4:/# ollama -v
ollama version is 0.3.7

三、Open-WebUI

OpenWebUI是一个可扩展、功能丰富且用户友好的自托管WebUI,它支持完全离线操作,并兼容Ollama和OpenAI的API。这为用户提供了一个可视化的界面,使得与大型语言模型的交互更加直观和便捷 [3]。

从docker hub拉取open-webui镜像(文件1G左右,看网速,2-3分钟)

docker pull dyrnq/open-webui:main

注意,官方文档是从 GitHub Container Registry (GHCR) 上拉取镜像,而不是从 Docker Hub。官方文档拉取命令如下:

docker pull ghcr.io/open-webui/open-webui:main

查看镜像

root@ip-172-31-83-158:~# docker images
REPOSITORY         TAG       IMAGE ID       CREATED         SIZE
dyrnq/open-webui   main      8aa8279a3e25   10 hours ago   3.9GB
ollama/ollama      latest    d5cbea22fd07   30 hours ago   1.98GB

启动docker镜像,映射出来3000端口。

root@ip-172-31-83-158:~# docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always dyrnq/open-webui:main

查看EC2的公网IP地址。

root@ip-172-31-83-158:~# curl ifconfig.me
54.243.6.37

访问Open WebUI。

创建账号,这个是本地账号,随便添加账号信息即可。

选择ollama中的模型,聊天测试。

可以直接拉取目前ollama没有的模型。

与下载的新模型进行对话。

四、文档链接

  •  [1] Dockerhub ollama镜像文件:https://hub.docker.com/r/ollama/ollama    
    
  •  [2] ollama keepalive:https://github.com/ollama/ollama/pull/3094    
    
  •  [3] Open WebUI Github:https://github.com/open-webui/open-webui
    

本文转载自: https://blog.csdn.net/liuqianglong_liu/article/details/141671874
版权归原作者 liuqianglong.com 所有, 如有侵权,请联系我们删除。

“Ollama 结合 Open-WebUI 在本地运行大语言模型”的评论:

还没有评论