0


Ollama配置与webUI本地部署-学习记录

Ollama


前言

Ollama是一款可以开始使用本地的大型语言模型。启动并运行大型语言模型。运行Llama 2、Code Llama和其他模型。自定义并创建您自己的模型。Ollama提供了丰富的功能,包括模型的训练、部署、监控等。


一、Ollama的下载与安装设置(windows)

1.下载

https://ollama.com/download–> Ollama官网下载
ollama

  • Dowload->选择适合的版本
  • OllamaSetup.exe

2.安装与配置

  • 默认安装在C盘
  • 设置环境变量

1.查看环境变量:

右键点击“此电脑”或“计算机”,选择“属性”。 点击“高级系统设置”。
在“高级”选项卡中,点击“环境变量”。
在这里,您可以看到“用户变量”和“系统变量”两个部分。
用户变量仅对当前用户有效,而系统变量对所有用户都有效。

2.设置环境变量:

在“用户变量”或“系统变量”部分,点击“新建”来创建一个新的环境变量。
输入变量名和变量值。 点击“确定”保存更改。

3.设置变量

OLLAMA_HOST0.0.0.0OLLAMA_MODELSD:\path\Ollama\Ollama_models(模型位置)OLLAMA_ORIGINS*

二、使用步骤

1.查找模型

打开官网->右上角搜索行->查找模型
或者选择Models直接找

在这里插入图片描述

在这可以找到可下载的模型

在这里插入图片描述

2.使用Ollama

1.下载模型

  • 复制指令

在这里插入图片描述

  • 使用终端启动ollama

在这里插入图片描述

  • 使用指令开始下载

在这里插入图片描述

2.使用

指令如下:

Usage:
  ollama [flags]
  ollama [command]

Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  ps          List running models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command

Flags:
  -h, --helphelpfor ollama
  -v, --version   Show version information

在这里插入图片描述

在这里插入图片描述

三、WebUI

我找到的大部分都是使用docker和open-webui, 我的电脑部署太麻烦,所以我选择使用ollama-webui-lite

参考教程:
超越GPT-3.5!Llama3个人电脑本地部署教程

使用ollama-webui-lite,非常轻量级,只需要依赖Node.js。

  1. 前往(https://nodejs.org/en/download)根据自己的操作系统和CPU芯片类型下载对应的Node.js并进行安装。或者我上传的资源ollama-webui-lite部署
  2. 设置国内NPM镜像
npm config set registry http://mirrors.cloud.tencent.com/npm/

部署WebUI

打开终端,执行以下命令部署WebUI(如果出错使用管理员权限打开终端):

在目标路径下

git clone https://github.com/ollama-webui/ollama-webui-lite.git
cd ollama-webui-lite
npminstall
npm run dev

在这里插入图片描述
打开网页http://localhost:3000/
在这里插入图片描述

如果想要使用docker参考open-webui


总结

每次启动webui有点繁琐,就写了一个bat脚本

(学着写的,有点画蛇添足,而且还是要手点,打开浏览器界面)
@echo on
title Ollama WebUI
start cmd /c "start "" "C:\Users\用户名\AppData\Local\Programs\Ollama\ollama app.exe" "
::ollama-webui-lite在哪个盘就转到哪个盘
D:
cd\path\to\ollama-webui-lite
npm run dev 
pause
标签: 学习 笔记

本文转载自: https://blog.csdn.net/qq_72421395/article/details/140889786
版权归原作者 猛男妙妙屋 所有, 如有侵权,请联系我们删除。

“Ollama配置与webUI本地部署-学习记录”的评论:

还没有评论