使用LangChain调用智谱AI的glm-4对话
【代码】使用LangChain调用智谱AI的glm-4对话。
LangChain-Chatchat 开源知识库来了
首先,我们需要定义问答任务。在 LangChain 中,任务是通过一系列 JSON 格式的配置文件来定义的。对于问答任务,我们需要指定输入文本、输出文本、知识库等相关信息。
LangChain连接国内大模型测试|智谱ai、讯飞星火、通义千问
n\n根据题目中的第二个条件,桌子比椅子多288元,可以得到以下等式:\n\n\[ 10x - x = 288 \]\n\n解这个方程,我们可以找到 \( x \) 的值:\n\n\[ 9x = 288 \]\n\[ x = \frac{288}{9} \]\n\[ x = 32 \]\n\n所以一
MyScale Telemetry:开源版 LangSmith,增强 LLM 应用程序的可观测性
MyScale Telemetry 是 LangSmith 的开源替代品,它提供与 LangSmith 类似的功能,包括跟踪和评估 LLM 应用程序。MyScale Telemetry 通过使用多功能强大的 MyScale SQL向量数据库和广泛使用的 Grafana 仪表板,减少了系统复杂性并提
AI探索实践10 - Typescript开发AI应用2:前端实现本地模型流式响应输出
文本主要是记录如何用前端技术,实现流式响应(打字机)的一种方法。通过使用前端流请求与响应的处理方法,设计必要的变量来控制数据读取和显示逻辑,来实现设计目标。
手把手教你从0到1搭建一个AI Agent(智能体)
本文介绍了ReAct Agent的概念和组成并通过代码实现了一个Ai Agent(智能体)
【AI大模型应用开发】【RAG优化 / 前沿】0. 综述:盘点当前传统RAG流程中存在的问题及优化方法、研究前沿
10个痛点问题,20+优化方法,8个前沿RAG研究。本文我们从RAG的流水线开始,全面梳理了当前传统RAG存在的问题,同时针对每个问题,总结了优化方法。并且,整理了当前前沿的RAG研究。
【AI大模型应用开发】以LangChain为例:从短期记忆实战,到如何让AI应用保持长期记忆的探索
本文我们来系统看下实现大模型应用记忆的方法,包括短期记忆和长期记忆。还是以LangChain为例来进行实战。
星火模型(Spark)的langchain 实现
星火模型的langchain实现。测试已通过,希望有所帮助。实现如下: 自行跳转。
AI系列:大语言模型的function calling(下)- 使用LangChain
在AI系列:大语言模型的function calling(上)中我们实现了OpenAI原生的function calling。这篇文章将继续探讨如何使用LangChain实现大语言模型(LLM)的function calling。
人工智能学习与实训笔记(九):Langchain + 百度大模型实战案例
人工智能子Langchain流程介绍:
AI小白使用Macbook Pro安装llama3与langchain初体验
使用Macbook Pro安装一个本地大语言模型Meta旗下最新大模型Llama 3,80亿(8b)和700亿(70b)两个小参数版本,以及使用langchain完成简单的RAG。
开源模型应用落地-LangChain高阶-Tools工具-集成agents(四)
将代理(agents)串联工具(tools ),将大语言模型的能力和本地、云服务能力结合
开源模型应用落地-LangChain高阶-事件回调-合规校验
通过LangChain的事件回调机制,便捷完成用户输入和模型输出的合规性检测
开源模型应用落地-LangChain高阶-Tools工具-Multi-Agent(五)
基于Multi-Agent进一步串联多个agents,通过多个 Agent 的协同合作,高效完成复杂任务。
人工智能的黄金链条:LangChain核心模块Chains解析
Chain 作为 LangChain 的核心模块之一,重要性不言而喻,它相当于是所有复杂逻辑的基础,用来将每个零散的逻辑串联成一整个业务流程,Chain 的设计非常巧妙,可以说是大模型应用的最佳实践之一。串联式调用语言模型链的一种,简单的串联每个步骤(Chain 实例),每个步骤都有单一的输入/输出
langchain调用语言模型chatglm4从智谱AI
参考了一些官方和他人帖子:主要就是LLM类的继承和重写# 函数继承和重写@property我们这里的本地模型是chatglm6B,结果:显存:速度:10个字需要0.12s。
【AI大模型应用开发】【LangChain系列】7. LangServe:轻松将你的LangChain程序部署成服务
通过一个例子带大家看了下LangServe的使用方法。它其实就是将LangChain程序制作成了一个 FastAPI 服务,方便部署和发布。重点在 `add_routes` 函数。
使用nextjs本地化部署AI大模型gemma
如何使用js本地化部署AI大模型gemma
【AI大模型应用开发】【LangChain系列】5. 实战LangChain的智能体Agents模块
LangChain的智能体Agents模块实战,一步步拆解实现步骤。