【AI写小说】使用AI写小说的一些体会
大家好,我是马丁,我前两天在使用Dify构建写小说的AI应用,一个演示版本我已经公开了。地址是http://AI写小说-演示版因为使用的是自己的主机,不是云服务器,偶尔的情况可能会出现网络不稳定的情况,耐心等下就行了。感兴趣的可以自己尝试下,如果想在自己的dify平台上运行、修改,在文末有DSL配置
私有化部署 Dify+Ollama并使用qwen2快速搭建 AI 应用
Dify 是一款开源的大语言模型(LLM) 应用开发平台。它融合了后端即服务(Backend as Service)和 LLMOps 的理念,使开发者可以快速搭建生产级的生成式 AI 应用。即使你是非技术人员,也能参与到 AI 应用的定义和数据运营过程中。
Dify中的docker-compose.yaml分析-web、db、redis、weaviate等
本文主要介绍了web、db、redis、weaviate、sandbox和ssrf_proxy等服务的配置,除此之外,还有Qdrant(向量数据库)、Milvus(向量数据库)和Nginx(反向代理)服务不再介绍。
Dify 与 Xinference 最佳组合 GPU 环境部署全流程
在前一篇文章RAG 项目对比之后,确定 Dify 目前最合适的 RAG 框架。本次就尝试在本地 GPU 设备上部署 Dify 服务。Dify 是将模型的加载独立出去的,因此需要选择合适的模型加载框架。调研一番之后选择了Xinference支持多种类型的模型,包括 LLM,Embedding, Rer
深入 Dify 源码,洞察 Dify RAG 核心机制
之前深入源码对 Dify 的完整流程进行了解读,基本上梳理了 Dify 的实现流程与主要组件。但是在实际部署之后,发现 Dify 现有的 RAG 检索效果没有那么理想。因此个人结合前端页面,配置信息与实现流程,深入查看了私有化部署的 Dify 的技术细节。将核心内容整理在这边,方便大家根据实际的业务
dify-web的Dockerfile分析
dify-web的Dockerfile分析。
开源RAG,本地mac启动 dify源码服务
参考官方文档来操作,基本没太大的问题。一些细节,我在本篇文章中补充了出来。这篇文章主要讲以源码的方式启动后端服务,前端服务使用容器启动。Dify 本地源码部署文档(有本地源码部署,我们才能在源码上继续做修改)先知道要花费多少资源这里docker 容器,占用了8个G的内存!# 创建名为 dify 的
LLMs之Dify:Dify的简介、安装和使用方法、案例应用之详细攻略
LLMs之Dify:Dify的简介、安装和使用方法、案例应用之详细攻略目录Dify的简介Dify的安装和使用方法Dify的案例应用Dify的简介2023年5月,Dify正式发布,这是一个开源的LLM应用程序开发平台。它直观的界面结合了人工智能工作流程、RAG管道、代理能力、模型管理、可观察性特性等