0


ollama与open-webui、lobe-chat简单使用案例

参考:
https://github.com/ollama/ollama
https://github.com/open-webui/open-webui

ollama最为大模型后端服务
open-webui、lobe-chat前端聊天页面

ollama直接下载客服端安装win cpu安装推理;open-webui、lobe-chat使用docker安装

1、ollama

安装好后可以直接运行,cpu使用不稳定比较慢

ollama run qwen:1.8b

具体可下载模型列表:https://ollama.com/library
在这里插入图片描述

2、open-webui

本地安装ollama运行后可以使用下面运行

docker run -d -p 3000:8080--
标签: 大模型 ollama

本文转载自: https://blog.csdn.net/weixin_42357472/article/details/137649031
版权归原作者 loong_XL 所有, 如有侵权,请联系我们删除。

“ollama与open-webui、lobe-chat简单使用案例”的评论:

还没有评论