0


部署Ollama(在LInux上进行部署)

1.介绍

Ollama:是一款旨在简化大型语言模型本地部署和运行过程的开源软件。

网址:Ollama

Ollama提供了一个轻量级、易于扩展的框架,让开发者能够在本地机器上轻松构建和管理LLMs(大型语言模型)。通过Ollama,开发者可以访问和运行一系列预构建的模型,或者导入和定制自己的模型,无需关注复杂的底层实现细节。

Ollama的主要功能包括快速部署和运行各种大语言模型,如Llama 2、Code Llama等。它还支持从GGUF、PyTorch或Safetensors格式导入自定义模型,并提供了丰富的API和CLI命令行工具,方便开发者进行高级定制和应用开发。

特点:

  • 一站式管理:Ollama将模型权重、配置和数据捆绑到一个包中,定义成Modelfile,从而优化了设置和配置细节,包括GPU使用情况。这种封装方式使得用户无需关注底层实现细节,即可快速部署和运行复杂的大语言模型。
  • 热加载模型文件:支持热加载模型文件,无需重新启动即可切换不同的模型,这不仅提高了灵活性,还显著增强了用户体验。
  • 丰富的模型库:提供多种预构建的模型,如Llama 2、Llama 3、通义千问等,方便用户快速在本地运行大型语言模型。
  • 多平台支持:支持多种操作系统,包括Mac、Windows和Linux,确保了广泛的可用性和灵活性。
  • 无复杂依赖:通过优化推理代码并减少不必要的依赖,Ollama能够在各种硬件上高效运行,包括纯CPU推理和Apple Silicon架构。
  • 资源占用少:Ollama的代码简洁明了,运行时占用资源少,使其能够在本地高效运行,不需要大量的计算资源

2.下载与安装

1.LInux上已经有了源文件

1.在虚拟机/root/resource目录中已经下载好Linux版本所需的ollama-linux-amd64.tgz文件,则执行下面命令开始安装:

tar -C /usr -xzf ollama-linux-amd64.tgz

2.操作成功之后,可以通过查看版本指令来验证是否安装成功

[root@bogon resource]# ollama -v
Warning: could not connect to a running Ollama instance
Warning: client version is 0.3.9

3.添加开启自启服务

创建服务文件/etc/systemd/system/ollama.service,并写入文件内容:

[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/bin/ollama serve
User=root
Group=root
Restart=always
RestartSec=3

[Install]
WantedBy=default.target

生效服务

sudo systemctl daemon-reload
sudo systemctl enable ollama

启动服务

sudo systemctl start ollama

2.一键安装

curl -fsSL https://ollama.com/install.sh | sh

3.安装大模型(这里使用的是通义千问大模型)

直接去ollama官网中下载:

可以找也可以搜

只需要执行命令就可以了

标签: linux 运维 服务器

本文转载自: https://blog.csdn.net/weixin_52514897/article/details/142886485
版权归原作者 只叹流年似水 所有, 如有侵权,请联系我们删除。

“部署Ollama(在LInux上进行部署)”的评论:

还没有评论