要点
- Ollama一个功能强大的本地大语言模型LLM运行工具,支持很多模型,并且操作极其简单
- 快速回忆步骤:
下载ollama工具:https://ollama.com/download
下载模型:ollama pull llama3 #根据libs列表直接指定名字
运行模型:ollama run llama3
测试:直接问他问题(可以关闭网络)
步骤
Step1. 下载ollama(根据平台选择)
https://ollama.com/download
下载后将软件安装,解压后拷贝到应用程序:
安装用户态命令:(点击install)
Step2:下载模型文件
支持的模型列表:https://ollama.com/library
比如llama3:
安装步骤:命令行直接安装
ollama pull llama3
实操:
这里需要耗费一些时间,具体根据网络和模型大小确定,模型大小参考:
ModelParametersSizeDownloadLlama 38B4.7GB
ollama run llama3
Llama 370B40GB
ollama run llama3:70b
Mistral7B4.1GB
ollama run mistral
Dolphin Phi2.7B1.6GB
ollama run dolphin-phi
Phi-22.7B1.7GB
ollama run phi
Neural Chat7B4.1GB
ollama run neural-chat
Starling7B4.1GB
ollama run starling-lm
Code Llama7B3.8GB
ollama run codellama
Llama 2 Uncensored7B3.8GB
ollama run llama2-uncensored
Llama 2 13B13B7.3GB
ollama run llama2:13b
Llama 2 70B70B39GB
ollama run llama2:70b
Orca Mini3B1.9GB
ollama run orca-mini
LLaVA7B4.5GB
ollama run llava
Gemma2B1.4GB
ollama run gemma:2b
Gemma7B4.8GB
ollama run gemma:7b
Solar10.7B6.1GB
ollama run solar
官方的参考资源:
8 GB 内存跑 7B models
16 GB to run the 13B models
32 GB to run the 33B models
比如M1有16G内存,可以跑7B的模型。
Step:运行模型
ollama run llama3
实操:(在M1的笔记本大概是s级别的,其他比如intel笔记本可能需要十几秒,M3等笔记本应该非常快)
并且测试的时候可以尝试关闭网络。
比如让他回答一个 gcc编译的问题:
再来一个:“python如何使用list,举一个实际的例子”
Step:退出聊天
Ctrl + d 或者 /bye退出聊天
其他
- ollama的github:https://github.com/ollama/ollama
- ollama在mac本地是以类似git的方式存储的,存储的模型都是以blobs的形式,和git底层原理类似。
- ollama在mac上模型存储的地址: ~/.ollama/models/blobs/ - 在models/manifests中存储了配置信息,比如llama的blob是哪个等信息
- 运行以后会自动启动RESTful的接口,也就是可以通过局域网访问,端口是11434,比如:

- 可以通过curl使用restful方式访问:比如:
curl http://localhost:11434/api/generate -d'{
"model": "llama3",
"prompt":"Why is the sky blue?"
}'
- 端侧的模型也具有记忆能力,还能反馈错误并且修改正
- 查看当前使用的模型等信息 /show info

最后
实操下来,因为ollma非常简单,只需要3个步骤就能使用模型,更多模型只需要一个pull就搞定。一台稍微不错的笔记本+网络,就能把各种大模型都用起来,快速上手吧。
版权归原作者 北冥有鱼被烹 所有, 如有侵权,请联系我们删除。