随着AI大模型技术的升起,人们越来越感觉到生活上的便捷以及人机对话照进现实.什么是大模型呢?
大模型(Large Model),通常是指参数量非常庞大的深度学习模型,特别是在自然语言处理(NLP)、计算机视觉(CV)等领域中,模型参数数量达到数十亿甚至数千亿的规模。
为了弥补Java在AI领域的工具短板,现在市面上出现了几款针对Java的AI开发工具.
一. AI开发工具
1.1 LangChain4J
- 提供标准化API,支持超过15个主流大模型提供商和嵌入存储,
- 提供工具箱,从低级提示词模板到高级AI服务,适合构建聊天机器人和检索增强生成(RAG)管道。
- 社区支持活跃,能够快速整合最新的AI技术,便于Java开发者将AI功能集成到现有项目中
1.2 Spring Al
- 深度集成到Spring框架中,Java开发者可以轻松将AI功能嵌入到现有Spring项目中。
- 尽管Spring Al仍处于发展阶段,尚未发布正式版本,但其凭借Spring生态系统,具备了极强的扩展 性和集成能力。
1.3 Spring AI Alibaba
- 提供多种大模型服务对接能力,包括主流开源与阿里云通义大模型服务(百炼)等 支持的模型类型包括聊天、文生图、音频转录、文生语音等
本文详解Langchain4j的使用.
二. 基本使用
由于现在Java开发都是基于SpringBoot整合开发,所以langchain4j也提供了对应的依赖包.除此我们也需要引入web的依赖
<dependencies>
<dependency>
<groupId>dev.langchain4j</groupId>
<artifactId>langchain4j-open-ai-spring-boot-starter</artifactId>
</dependency>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-web</artifactId>
</dependency>
</dependencies>
版本管理
<properties>
<maven.compiler.source>17</maven.compiler.source>
<maven.compiler.target>17</maven.compiler.target>
<project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
<spring-boot.version>3.3.4</spring-boot.version>
</properties>
<dependencyManagement>
<dependencies>
<dependency>
<groupId>dev.langchain4j</groupId>
<artifactId>langchain4j-bom</artifactId>
<version>0.35.0</version>
<type>pom</type>
<scope>import</scope>
</dependency>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-dependencies</artifactId>
<version>${spring-boot.version}</version>
<type>pom</type>
<scope>import</scope>
</dependency>
</dependencies>
</dependencyManagement>
接下来我们需要注入对话服务的模型,这列我们以阿里百炼的模型作为基础模型.
2.1 环境准备
在引入百炼的大模型前,我们需要配置一些环境.访问百炼大模型的官网.
阿里云登录 - 欢迎登录阿里云,安全稳定的云计算服务平台
我们需要获取一个API-KEY
然后这里**可能需要你去充值,**不用充值多了,几块就够啦.然后我们去到模型广场
点击查看详情.获取到model-name和baseUrl
获取到,去SpringBoot的application.yml配置文件配置
langchain4j:
open-ai:
chat-model:
api-key: 你的api-key
model-name: qwen-max
base-url: 对应的url
LangChain4j本身提供了一个语言模型(ChatLanguageModel),我们注入使用即可,创建一个Controller类测试
@RestController
public class ChatController {
ChatLanguageModel chatLanguageModel;
public ChatController(ChatLanguageModel chatLanguageModel) {
this.chatLanguageModel = chatLanguageModel;
}
@GetMapping("/chat")
public String model(@RequestParam(value = "message", defaultValue = "Hello") String message) {
return chatLanguageModel.generate(message);
}
}
调用Postman或者其他测试工具测试
完成基本的模型对接使用.
三.常规使用
3.1 配置类配置
刚刚我们是基于yml配置文件配置的,实际上我们还可以通过配置类来完成配置.
@Configuration
public class LLMConfig {
/**
* 构建 LLM 模型
* @return
*/
@Bean
public ChatLanguageModel chatLanguageModel(){
return OpenAiChatModel.builder()
.apiKey("")
.modelName("qwen-max")
.baseUrl("")
.build();
}
}
3.2 AI-Service
之前这种自动注入LangChain4j给我们提供的类来完成模型调用,不太灵活,我们若想不同的服务使用不同的大模型,这种方式就不太可取,实际上他还提供了AI-Service的工具类来帮助我们可以灵活更换大模型.
编写一个接口
public interface IChatAssistant {
String chat(String message);
}
我们修改一下我们的配置类
@Configuration
public class LLMConfig {
/**
* 构建 LLM 模型
* @return
*/
@Bean
public ChatLanguageModel chatLanguageModel(){
return OpenAiChatModel.builder()
.apiKey("")
.modelName("qwen-max")
.baseUrl("")
.build();
}
/**
* 构建 LLM 服务,AI助手,基于配置的大模型来使用
* @return
*/
@Bean
public IChatAssistant chatAssistant(){
return AiServices.builder(IChatAssistant.class)
.chatLanguageModel(chatLanguageModel())
.build();
}
}
测试,依旧能够访问
3.3 日志打印
去执行上述测试的小伙伴应该发现了,控制台没有任何的日志输出,我们不知道用户具体输入了什么,对于排查问题来讲肯定是不友好的.Langchain4j为我们提供了日志的开关,让我们可以查看到日志的打印.
修改yml配置文件
logging:
level:
dev:
langchain4j: DEBUG
ai4j:
openai4j: DEBUG
修改配置类
/**
* 构建 LLM 模型
* @return
*/
@Bean
public ChatLanguageModel chatLanguageModel(){
return OpenAiChatModel.builder()
.apiKey("")
.modelName("qwen-max")
// 是否打印请求日志
.logRequests(true)
// 是否打印响应日志
.logResponses(true)
.baseUrl("")
.build();
}
当然还有一步,Langchain4j是基于SLF4j的日志框架,所以我们需要引入logback日志框架
<dependency>
<groupId>ch.qos.logback</groupId>
<artifactId>logback-classic</artifactId>
<version>1.5.8</version>
</dependency>
测试,控制台打印
3.4 流式响应
测试过后的同学应该发现了,我们需要等待很久,最后才把输出的结果给到我们.这样对用户的体验肯定是不友好的.我们平常使用的一些ai大模型,是可以感受到他是慢慢的打印出来回复你的答案,而不是一口气讲所有的文本返回回来.
Langchain4j也为我们提供了这样的流式响应的功能.我们需要引入新的依赖
<dependency>
<groupId>dev.langchain4j</groupId>
<artifactId>langchain4j-reactor</artifactId>
<version>0.35.0</version>
</dependency>
然后需要引入新的配置,Langchain4j提供了流式大模型.我们什么都不用改,只需要修改注入的类就行,其他的配置与原来的相同.以及再配置一个AI-Service.
@Bean
public StreamingChatLanguageModel streamingChatLanguageModel(){
return OpenAiStreamingChatModel.builder()
.apiKey("")
.modelName("qwen-max")
// 是否打印请求日志
.logRequests(true)
// 是否打印响应日志
.logResponses(true)
.baseUrl("")
.build();
}
@Bean
public IChatStreamAssistant chatStreamAssistant(){
return AiServices.builder(IChatStreamAssistant.class)
.streamingChatLanguageModel(streamingChatLanguageModel())
.build();
}
对接的AI-Service需要修改其的返回类型.
package org.kuchen.service;
import reactor.core.publisher.Flux;
/**
* @author kuchen
*/
public interface IChatStreamAssistant {
Flux<String> chat(String message);
}
controller层编写
我们可以去浏览器直观的感受,流式响应的效果
流式响应
版权归原作者 Czi橙 所有, 如有侵权,请联系我们删除。