前言
之前文章发表了如何本地部署Ollma,但只能在控制台操作,这样不是很方便。所以这篇文档教大家如何部署OpenWebUi页面。
提示:以下是本篇文章正文内容,下面案例可供参考
一、WebUI好用吗,优势是什么?
🚀轻松设置:使用Docker或Kubernetes (kubectl、kustomize或helm)无缝安装,获得对两者都支持的无忧体验:ollama和:cuda标记的图像。
🤝Ollama/OpenAI API集成:轻松集成兼容OpenAI的API,与Ollama型号一起进行多功能对话。自定义要链接的OpenAI API URLLMStudio、GroqCloud、Mistral、OpenRouter等等.
🧩管道,开放WebUI插件支持:使用将自定义逻辑和Python库无缝集成到开放式WebUI中管道插件框架。启动Pipelines实例,将OpenAI URL设置为Pipelines URL,探索无限的可能性。例子包括函数调用,用户限速为了控制访问,使用监控有了像Langfuse这样的工具,带LibreTranslate的实时翻译对于多语言支持,有毒邮件过滤还有更多。
📱响应式设计:享受跨越台式机、笔记本电脑和移动设备的无缝体验。
📱用于移动设备的渐进式网络应用程序(PWA):借助我们的PWA,在您的移动设备上享受类似原生应用的体验,提供本地主机上的离线访问和无缝用户界面。
✒️🔢完全降价和LaTeX支持:通过全面的降价和LaTeX功能提升您的LLM体验,丰富互动。
🎤📹免提语音/视频通话:通过集成的免提语音和视频通话功能体验无缝通信,营造更具活力和互动性的聊天环境。
🛠️模型构建器:通过Web用户界面轻松创建Ollama模型。创建和添加自定义角色/代理,自定义聊天元素,并通过轻松导入模型开放WebUI社区整合。
🐍原生Python函数调用工具:使用工具工作区中内置的代码编辑器支持来增强您的LLM。通过简单地添加您的纯Python函数,带来您自己的函数(BYOF ),实现与LLMs的无缝集成。
📚本地RAG集成:通过突破性的检索增强生成(RAG)支持,探索聊天交互的未来。此功能将文档交互无缝集成到您的聊天体验中。您可以将文档直接加载到聊天中或将文件添加到您的文档库中,使用#查询前的命令。
🌐网络浏览能力:使用将网站无缝集成到您的聊天体验中#命令后跟一个URL。此功能允许您将网络内容直接融入您的对话,增强互动的丰富性和深度。
🎨图像生成集成:使用AUTOMATIC1111 API或ComfyUI(本地)和OpenAI的DALL-E(外部)等选项无缝整合图像生成功能,通过动态视觉内容丰富您的聊天体验。
⚙️许多模型对话:轻松地同时与各种模型互动,利用它们的独特优势实现最佳响应。通过并行利用一组不同的模型来增强您的体验。
🔐基于角色的访问控制(RBAC):使用受限权限确保安全访问;只有获得授权的个人才能访问您的Ollama,并且只有管理员才有权创建/提取模型。
🌐🌍多语言支持:在我们的国际化(i18n)支持下,体验以您的首选语言打开WebUI。加入我们,扩展我们支持的语言!我们正在积极寻找贡献者!
🌟持续更新:我们致力于通过定期更新、修复和新功能来改进Open WebUI。
二、使用步骤
1.如何安装
Docker快速入门🐳
当使用Docker安装Open WebUI时,请确保包含-v open-webui:/app/backend/data在你的码头指挥下。这一步至关重要,因为它确保您的数据库被正确装载,并防止任何数据丢失。
如果Ollama在你的电脑上,请使用以下命令:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/o
有GPU支持:通过运行以下命令来利用GPU资源:
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
仅用于CPU:如果您没有使用GPU,请使用以下命令:
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/ope
总结
Open WebUI是一个可扩张的,功能丰富且用户友好的自托管WebUI,旨在完全离线操作。它支持各种LLM运行器,包括Ollama和OpenAI兼容的API。
版权归原作者 毕~方 所有, 如有侵权,请联系我们删除。