Get up and running with large language models.
Run Llama 3.1, Phi 3, Mistral, Gemma 2, and other models. Customize and create your own.
Ollama是做什么的?
Ollama是一个开源的大型语言模型部署工具,它可以帮助用户快速在本地部署运行大模型。类似于Docker一样,仅仅用几行命令就可以运行一个大模型。
官方地址:Ollama
github:GitHub - ollama/ollama: Get up and running with Llama 3, Mistral, Gemma 2, and other large language
如何安装Ollama
官网直接下载安装:Download Ollama
配置Ollama模型文件地址
由于Ollama在下载模型时,会自动下载到C盘,因此需要设置下载目录。方法如下:
在环境变量中添加“OLLAMA_MODELS”,之后重启ollama,我把下载模型的目录设置在了"D:\ollama"目录下。
Ollama使用帮助
ollama -h
Available Commands:
serve Start ollama
create Create a model from a Modelfile
show Show information for a model
run Run a model
pull Pull a model from a registry
push Push a model to a registry
list List models
ps List running models
cp Copy a model
rm Remove a model
help Help about any command
需要重点注意的几个指令:
# 启动服务
ollama serve
# 拉模型
ollama pull llama3.1
# 部署模型
ollama run llama3.1
# 运行的模型列表
ollama list
# 模型删除
ollama rm llama3.1
Ollama部署大模型(llama3.1为例)
在安装模型之前需要到模型仓库中获取模型信息。
- 模型仓库地址 library
- 选择需要的模型
- 执行模型运行指令,如果本地没用模型镜像,ollama会先拉模型镜像,然后在进行启动运行。
使用API访问模型
Ollama有一套用于运行和管理模型的 REST API。
Generate a response
curl http://localhost:11434/api/generate -d'{
"model": "llama3.1",
"prompt":"Why is the sky blue?"
}'
Chat with a model
curl http://localhost:11434/api/chat -d'{
"model": "llama3.1",
"messages": [
{ "role": "user", "content": "why is the sky blue?" }
]
}'
更多API可以参考:API documentation
curl http://localhost:11434/api/chat -d'{
"model": "llama3.1",
"messages": [
{
"role": "user",
"content": "hello~"
}
]
}'
这样就基本完成了Ollama在本地部署大模型。
剩下的就是通过三方工具开发自己的大模型应用。
版权归原作者 静愚 AGI 所有, 如有侵权,请联系我们删除。