langchain调用语言模型chatglm4从智谱AI

参考了一些官方和他人帖子:主要就是LLM类的继承和重写# 函数继承和重写@property我们这里的本地模型是chatglm6B,结果:显存:速度:10个字需要0.12s。

【AI大模型应用开发】【LangChain系列】7. LangServe:轻松将你的LangChain程序部署成服务

通过一个例子带大家看了下LangServe的使用方法。它其实就是将LangChain程序制作成了一个 FastAPI 服务,方便部署和发布。重点在 `add_routes` 函数。

使用nextjs本地化部署AI大模型gemma

如何使用js本地化部署AI大模型gemma

【AI大模型应用开发】【LangChain系列】5. 实战LangChain的智能体Agents模块

LangChain的智能体Agents模块实战,一步步拆解实现步骤。

大模型LLM在 Text2SQL 上的应用实践

目前,大模型的一个热门应用方向Text2SQL,它可以帮助用户快速生成想要查询的SQL语句,再结合可视化技术可以降低使用数据的门槛,更便捷的支持决策。本文将从以下四个方面介绍LLM在Text2SQL应用上的基础实践。· Text2SQL概述· LangChain基础知识· 基于SQLDatabase

【2024最全最细Langchain教程-1 】调用openai实现人工智能时代的hello_world

1. 安装和引入openai库2. 创建OpenAi对象3. 调用openai的内置方法,输入消息和模型选择4. 没有梯子国内也可实现openai访问5. 使用免费模型的方法

LLM之LangChain(六)| 使用LangGraph创建一个超级AI Agent

Langgraph的特点是什么,以及如何在Langgraph中构建一个代理执行器,我们将探讨Langgraph中的聊天代理执行器以及如何在人类循环和聊天中修改Langgraph中的聊天agent执行器。这些将帮助我们利用现有的LangChain代理类,为我们的代理提供OpenAI的语言模型,并使用T

【AI大模型应用开发】【RAG评估】1. 通俗易懂:深度理解RAGAS评估方法的原理与应用

本文我们针对RAGAS评估方法进行详细介绍。我们将深入其原理,理解其评估指标背后是怎么实现的。都是我根据自己的理解用大白话解释,保证大家能看懂。

【AI学习】LangChain学习

LangChain是一个用于开发由语言模型驱动的应用程序的框架。具有上下文感知能力:将语言模型连接到上下文来源(提示指令,少量的示例,需要回应的内容等)具有推理能力:依赖语言模型进行推理(根据提供的上下文如何回答,采取什么行动等)

【Langchain+Streamlit】打造一个旅游问答AI

利用Langchain+Streamlit打造一个交互简单的旅游问答AI机器人,如果你有openai账号,可以按照如下的网址直接体验,如果你没有的话可以站内私信博主要一下临时key体验一下:产品使用传送门——这里有演示效果和代码讲解的视频传送门 ——github传送门 ——下面是一些使用效果截图,如

AI-基于Langchain-Chatchat和chatglm3-6b部署私有本地知识库

自从去年GPT模型火爆以来,降低了很多个人和企业进入人工智能领域的门槛,对于大模型尤其是开源的大模型国内应该比较受关注和期待,毕竟高额的成本也能将不少人阻挡在门外,其次,大家都希望在产品中集成LLM的能力,结合业务来落地智能化应用,提升产品的竞争力,最直接的应用就是构建知识库。下面汇总了一下之前介绍

AI大模型入门 - LangChain的剖析与实践

通过LangChain理解AI大模型,并学会基于大模型之上的CoT、ReAct、Embedding、向量数据库、Tools、Agent等应用方向有关的技术知识

Langchain-Chatchat开源库使用的随笔记(一)

chatchat使用笔记

梳理Langchain-Chatchat-UI接口文档

在 Langchain-Chatchat v0.1.17 版本及以前是有前后端分离的 Vue 项目的,但是 v0.2.0 后就没有了。所以本文使用的是 Langchain-Chatchat v0.1.17 版本中的 Vue 项目。经过一番折腾终于将 Langchain-Chatchat v0.1.1

虹科分享 | 用Redis为LangChain定制AI代理——OpenGPTs

文章介绍了LangChain的OpenGPTs项目如何利用Redis来作为其可扩展的实时数据平台。这个项目允许用户选择模型、控制数据检索,并管理数据存储的位置。Redis在OpenGPTs项目中用作存储层的实现,提供多种持久存储需求,同时还支持作为用于检索向量存储、用于存储信息和代理配置的数据库存储

Langchain中改进RAG能力的3种常用的扩展查询方法

有多种方法可以提高检索增强生成(RAG)的能力,其中一种方法称为查询扩展。我们这里主要介绍在Langchain中常用的3种方法

大模型、AI-Agent、langchain之间的关系

和传统的 RPA 相比,RPA 只能在给定的情况条件下,根据程序内预设好的流程来进行工作的处 理,而 AI Agent 则可以通过和环境进行交互,感知信息并做出对应的思考和行动。因此,大模型是构建AI-Agent时的一个高级功能单元,而非直接包含于AI-Agent内,而是被集成在AI-Agent架构

WebLangChain_ChatGLM:结合 WebLangChain 和 ChatGLM3 的中文 RAG 系统

本文将详细介绍基于网络检索信息的检索增强生成系统,即 WebLangChain。通过整合 LangChain,成功将大型语言模型与最受欢迎的外部知识库之一——互联网紧密结合。鉴于中文社区中大型语言模型的蓬勃发展,有许多可供利用的开源大语言模型。ChatGLM、Baichuan、Qwen 等大语言模型

LLM之RAG实战(一):使用Mistral-7b, LangChain, ChromaDB搭建自己的WEB聊天界面

为了完成我们的任务,我们将使用HuggingFaceEmbeddings类,这是一个本地管道包装器,用于与Hugging Face Hub上托管的GTE模型进行交互。它的工作原理如下:我们设置了一个名为querying()的函数,它将查询作为主要输入,并使用一个名为history的名称巧妙的假参数来

通过4个任务比较LangChain和LlamaIndex

LlamaIndex和LangChain是构建LLM应用程序的两个框架。LlamaIndex专注于RAG用例,LangChain得到了更广泛的应用。

登录可以使用的更多功能哦! 登录
作者榜
...
资讯小助手

资讯同步

...
内容小助手

文章同步

...
Deephub

公众号:deephub-imba

...
奕凯

公众号:奕凯的技术栈