Ollama
前言
Ollama是一款可以开始使用本地的大型语言模型。启动并运行大型语言模型。运行Llama 2、Code Llama和其他模型。自定义并创建您自己的模型。Ollama提供了丰富的功能,包括模型的训练、部署、监控等。
一、Ollama的下载与安装设置(windows)
1.下载
https://ollama.com/download–> Ollama官网下载
- Dowload->选择适合的版本
- OllamaSetup.exe
2.安装与配置
- 默认安装在C盘
- 设置环境变量
1.查看环境变量:
右键点击“此电脑”或“计算机”,选择“属性”。 点击“高级系统设置”。
在“高级”选项卡中,点击“环境变量”。
在这里,您可以看到“用户变量”和“系统变量”两个部分。
用户变量仅对当前用户有效,而系统变量对所有用户都有效。
2.设置环境变量:
在“用户变量”或“系统变量”部分,点击“新建”来创建一个新的环境变量。
输入变量名和变量值。 点击“确定”保存更改。
3.设置变量
OLLAMA_HOST0.0.0.0OLLAMA_MODELSD:\path\Ollama\Ollama_models(模型位置)OLLAMA_ORIGINS*
二、使用步骤
1.查找模型
打开官网->右上角搜索行->查找模型
或者选择Models直接找
在这可以找到可下载的模型
2.使用Ollama
1.下载模型
复制指令
使用终端启动ollama
使用指令开始下载
2.使用
指令如下:
Usage:
ollama [flags]
ollama [command]
Available Commands:
serve Start ollama
create Create a model from a Modelfile
show Show information for a model
run Run a model
pull Pull a model from a registry
push Push a model to a registry
list List models
ps List running models
cp Copy a model
rm Remove a model
help Help about any command
Flags:
-h, --helphelpfor ollama
-v, --version Show version information
三、WebUI
我找到的大部分都是使用docker和open-webui, 我的电脑部署太麻烦,所以我选择使用ollama-webui-lite
参考教程:
超越GPT-3.5!Llama3个人电脑本地部署教程
使用ollama-webui-lite,非常轻量级,只需要依赖Node.js。
- 前往(https://nodejs.org/en/download)根据自己的操作系统和CPU芯片类型下载对应的Node.js并进行安装。或者我上传的资源ollama-webui-lite部署
- 设置国内NPM镜像
npm config set registry http://mirrors.cloud.tencent.com/npm/
部署WebUI
打开终端,执行以下命令部署WebUI(如果出错使用管理员权限打开终端):
在目标路径下
git clone https://github.com/ollama-webui/ollama-webui-lite.git
cd ollama-webui-lite
npminstall
npm run dev
如果想要使用docker参考open-webui
总结
每次启动webui有点繁琐,就写了一个bat脚本
(学着写的,有点画蛇添足,而且还是要手点,打开浏览器界面)
@echo on
title Ollama WebUI
start cmd /c "start "" "C:\Users\用户名\AppData\Local\Programs\Ollama\ollama app.exe" "
::ollama-webui-lite在哪个盘就转到哪个盘
D:
cd\path\to\ollama-webui-lite
npm run dev
pause
版权归原作者 猛男妙妙屋 所有, 如有侵权,请联系我们删除。