0


Mac环境下ollama部署和体验

欢迎访问我的GitHub

这里分类和汇总了欣宸的全部原创(含配套源码):https://github.com/zq2599/blog_demos

关于ollama

  • ollama和LLM(大型语言模型)的关系,类似于docker和镜像,可以在ollama服务中管理和运行各种LLM,下面是ollama命令的参数,与docker管理镜像很类似,可以下载、删除、运行各种LLM
Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command

本篇概览

  • 作为入门操作的笔记,本篇记录了部署和简单体验ollama的过程,并且通过docker部署了web-ui,尝试通过页面使用大模型
  • 本次操作的环境如下
  1. 电脑:macbook pro m1,Sonoma 14.4.1
  2. ollama:0.1.32

安装

  • 在官网首页点击Download即可下载,得到zip安装包,解压后就是应用程序了在这里插入图片描述
  • 会提示是否移动到应用程序目录,回车确认在这里插入图片描述
  • 打开后是个简单的页面在这里插入图片描述
  • 完成安装,会有一个提示,告诉你如何安装指定模型在这里插入图片描述

关于模型

  • ollama支持的全量模型在这里:https://ollama.com/library

  • 官方给出的部分模型
    ModelParametersSize下载命令Llama 38B4.7GB

    ollama run llama3
    

    Llama 370B40GB

    ollama run llama3:70b
    

    Phi-33.8B2.3GB

    ollama run phi3
    

    Mistral7B4.1GB

    ollama run mistral
    

    Neural Chat7B4.1GB

    ollama run neural-chat
    

    Starling7B4.1GB

    ollama run starling-lm
    

    Code Llama7B3.8GB

    ollama run codellama
    

    Llama 2 Uncensored7B3.8GB

    ollama run llama2-uncensored
    

    LLaVA7B4.5GB

    ollama run llava
    

    Gemma2B1.4GB

    ollama run gemma:2b
    

    Gemma7B4.8GB

    ollama run gemma:7b
    

    Solar10.7B6.1GB

    ollama run solar
    
  • 另外需要注意的是本地内存是否充足,7B参数的模型需要8G内存,13B需要16G内存,33B需要32G内存

运行8B的Llama3

  • 我的mac笔记本内存16G,所以打算运行8B的Llama3,命令如下
ollama run llama3
  • 第一次运行,因为没有模型文件,所以需要下载,等待下载中在这里插入图片描述- 下载完毕后就可以问答了

在这里插入图片描述

  • 退出的方法是输入/bye

Linux版本

  • 如果操作系统是Linux,安装命令如下
curl-fsSL https://ollama.com/install.sh |sh
  • 安装完成后还要启动
ollama serve

webui

  • 如果电脑上装有docker,请执行以下命令来启动ollama的webui
docker run -d-p3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
  • 出现登录页面,需要点击右下角的Sign up先注册在这里插入图片描述
  • 完成注册后,第一次登录会出现特性介绍在这里插入图片描述
  • 可以在这里修改系统语言在这里插入图片描述
  • 接下来试试聊天功能,先是选择模型,由于刚才已经下载过模型了,这里只要选择即可,如下图在这里插入图片描述
  • 然后就可以对话了在这里插入图片描述
  • 在设置页面可以管理模型在这里插入图片描述
  • 至此,最基础的操作已经完成,如果您正处于初步尝试阶段,希望本文可以给您一些参考

你不孤单,欣宸原创一路相伴

  1. Java系列
  2. Spring系列
  3. Docker系列
  4. kubernetes系列
  5. 数据库+中间件系列
  6. DevOps系列
标签: ollama ai

本文转载自: https://blog.csdn.net/boling_cavalry/article/details/138387039
版权归原作者 程序员欣宸 所有, 如有侵权,请联系我们删除。

“Mac环境下ollama部署和体验”的评论:

还没有评论