智谱AI聊天

Spring AI 支持来自智谱AI的各种AI语言模型。您可以与智谱AI语言模型交互,并基于智谱AI模型创建多语言对话助手。

前提条件

您需要在智谱AI创建API以访问智谱AI语言模型。

智谱AI注册页面创建账户并在API 密钥页面生成令牌。Spring AI项目定义了一个名为spring.ai.zhipuai.api-key的配置属性,您应该将其设置为从API 密钥页面获取的API 密钥的值。导出环境变量是设置该配置属性的一种方法。

export SPRING_AI_ZHIPU_AI_API_KEY=<INSERT KEY HERE>

添加仓库和BOM

Spring AI工件发布在Spring Milestone和Snapshot仓库中。请参考仓库部分将这些仓库添加到您的构建系统中。

为了帮助进行依赖项管理,Spring AI提供了一个BOM(物料清单)以确保在整个项目中使用一致版本的Spring AI。请参考依赖项管理部分将Spring AI BOM添加到您的构建系统中。

自动配置

Spring AI为智谱AI聊天客户端提供Spring Boot自动配置。要启用它,请将以下依赖项添加到项目的Maven pom.xml文件中

<dependency>
    <groupId>org.springframework.ai</groupId>
    <artifactId>spring-ai-zhipuai-spring-boot-starter</artifactId>
</dependency>

或添加到您的Gradle build.gradle构建文件中。

dependencies {
    implementation 'org.springframework.ai:spring-ai-zhipuai-spring-boot-starter'
}
请参考依赖项管理部分将Spring AI BOM添加到您的构建文件中。

聊天属性

重试属性

前缀spring.ai.retry用作属性前缀,允许您配置智谱AI聊天模型的重试机制。

属性 描述 默认值

spring.ai.retry.max-attempts

最大重试次数。

10

spring.ai.retry.backoff.initial-interval

指数退避策略的初始睡眠时长。

2 秒。

spring.ai.retry.backoff.multiplier

退避间隔倍数。

5

spring.ai.retry.backoff.max-interval

最大退避时长。

3 分钟。

spring.ai.retry.on-client-errors

如果为false,则抛出NonTransientAiException,并且不尝试对4xx客户端错误代码进行重试。

false

spring.ai.retry.exclude-on-http-codes

不应触发重试的HTTP状态代码列表(例如,抛出NonTransientAiException)。

spring.ai.retry.on-http-codes

应触发重试的HTTP状态代码列表(例如,抛出TransientAiException)。

连接属性

前缀spring.ai.zhiPu用作属性前缀,允许您连接到智谱AI。

属性 描述 默认值

spring.ai.zhipuai.base-url

连接到的URL

open.bigmodel.cn/api/paas

spring.ai.zhipuai.api-key

API 密钥

-

配置属性

前缀spring.ai.zhipuai.chat是属性前缀,允许您配置智谱AI的聊天模型实现。

属性 描述 默认值

spring.ai.zhipuai.chat.enabled

启用智谱AI聊天模型。

true

spring.ai.zhipuai.chat.base-url

可选地覆盖spring.ai.zhipuai.base-url以提供特定于聊天的URL。

open.bigmodel.cn/api/paas

spring.ai.zhipuai.chat.api-key

可选地覆盖spring.ai.zhipuai.api-key以提供特定于聊天的API密钥。

-

spring.ai.zhipuai.chat.options.model

这是要使用的智谱AI聊天模型

GLM-3-TurboGLM-3-TurboGLM-4GLM-4-AirGLM-4-AirXGLM-4-FlashGLM-4V指向最新的模型版本)

spring.ai.zhipuai.chat.options.maxTokens

在聊天完成中生成的令牌的最大数量。输入令牌和生成令牌的总长度受模型上下文长度的限制。

-

spring.ai.zhipuai.chat.options.temperature

要使用的采样温度,介于0和1之间。较高的值(如0.8)会使输出更随机,而较低的值(如0.2)会使输出更集中和确定性。我们通常建议更改此值或top_p,但不要同时更改两者。

0.7

spring.ai.zhipuai.chat.options.topP

称为核采样的温度采样的替代方法,其中模型考虑具有top_p概率质量的令牌的结果。因此,0.1表示仅考虑包含前10%概率质量的令牌。我们通常建议更改此值或温度,但不要同时更改两者。

1.0

spring.ai.zhipuai.chat.options.stop

模型将停止生成由stop指定的字符,目前仅支持格式为["stop_word1"]的单个停止词。

-

spring.ai.zhipuai.chat.options.user

代表您的最终用户的唯一标识符,这可以帮助智谱AI监控和检测滥用。

-

spring.ai.zhipuai.chat.options.requestId

该参数由客户端传递,必须确保唯一性。它用于区分每个请求的唯一标识符。如果客户端未提供,则平台将默认生成它。

-

spring.ai.zhipuai.chat.options.doSample

当do_sample设置为true时,启用采样策略。如果do_sample为false,则采样策略参数temperature和top_p将不会生效。

true

spring.ai.zhipuai.chat.options.proxy-tool-calls

如果为true,则Spring AI不会在内部处理函数调用,而是将其代理到客户端。然后,客户端负责处理函数调用,将其分派到相应的函数并返回结果。如果为false(默认值),则Spring AI将在内部处理函数调用。仅适用于支持函数调用的聊天模型。

false

您可以覆盖用于ChatModel实现的通用spring.ai.zhipuai.base-urlspring.ai.zhipuai.api-key。如果设置了spring.ai.zhipuai.chat.base-urlspring.ai.zhipuai.chat.api-key属性,则优先于通用属性。如果您想对不同的模型和不同的模型端点使用不同的智谱AI帐户,这将非常有用。
所有以spring.ai.zhipuai.chat.options为前缀的属性都可以在运行时通过向Prompt调用添加特定于请求的运行时选项来覆盖。

运行时选项

ZhiPuAiChatOptions.java提供了模型配置,例如要使用的模型、温度、频率惩罚等。

在启动时,可以使用ZhiPuAiChatModel(api, options)构造函数或spring.ai.zhipuai.chat.options.*属性配置默认选项。

在运行时,您可以通过向Prompt调用添加新的、特定于请求的选项来覆盖默认选项。例如,要覆盖特定请求的默认模型和温度

ChatResponse response = chatModel.call(
    new Prompt(
        "Generate the names of 5 famous pirates.",
        ZhiPuAiChatOptions.builder()
            .withModel(ZhiPuAiApi.ChatModel.GLM_3_Turbo.getValue())
            .withTemperature(0.5)
        .build()
    ));
除了特定于模型的ZhiPuAiChatOptions之外,您还可以使用可移植的ChatOptions实例,该实例使用ChatOptionsBuilder#builder()创建。

示例控制器

创建一个新的Spring Boot项目,并将spring-ai-zhipuai-spring-boot-starter添加到您的pom(或gradle)依赖项中。

src/main/resources目录下添加一个application.properties文件,以启用和配置智谱AI聊天模型

spring.ai.zhipuai.api-key=YOUR_API_KEY
spring.ai.zhipuai.chat.options.model=glm-4-air
spring.ai.zhipuai.chat.options.temperature=0.7
api-key替换为您自己的智谱AI凭据。

这将创建一个ZhiPuAiChatModel实现,您可以将其注入到您的类中。这是一个使用聊天模型进行文本生成的简单@Controller类的示例。

@RestController
public class ChatController {

    private final ZhiPuAiChatModel chatModel;

    @Autowired
    public ChatController(ZhiPuAiChatModel chatModel) {
        this.chatModel = chatModel;
    }

    @GetMapping("/ai/generate")
    public Map generate(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {
        return Map.of("generation", this.chatModel.call(message));
    }

    @GetMapping("/ai/generateStream")
	public Flux<ChatResponse> generateStream(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {
        var prompt = new Prompt(new UserMessage(message));
        return this.chatModel.stream(prompt);
    }
}

手动配置

ZhiPuAiChatModel实现了ChatModelStreamingChatModel,并使用低级ZhiPuAiApi客户端连接到智谱AI服务。

spring-ai-zhipuai依赖项添加到项目的Maven pom.xml文件中

<dependency>
    <groupId>org.springframework.ai</groupId>
    <artifactId>spring-ai-zhipuai</artifactId>
</dependency>

或添加到您的Gradle build.gradle构建文件中。

dependencies {
    implementation 'org.springframework.ai:spring-ai-zhipuai'
}
请参考依赖项管理部分将Spring AI BOM添加到您的构建文件中。

接下来,创建一个ZhiPuAiChatModel并将其用于文本生成

var zhiPuAiApi = new ZhiPuAiApi(System.getenv("ZHIPU_AI_API_KEY"));

var chatModel = new ZhiPuAiChatModel(this.zhiPuAiApi, ZhiPuAiChatOptions.builder()
                .withModel(ZhiPuAiApi.ChatModel.GLM_3_Turbo.getValue())
                .withTemperature(0.4)
                .withMaxTokens(200)
                .build());

ChatResponse response = this.chatModel.call(
    new Prompt("Generate the names of 5 famous pirates."));

// Or with streaming responses
Flux<ChatResponse> streamResponse = this.chatModel.stream(
    new Prompt("Generate the names of 5 famous pirates."));

ZhiPuAiChatOptions提供聊天请求的配置信息。ZhiPuAiChatOptions.Builder是流畅的选项构建器。

低级ZhiPuAiApi客户端

ZhiPuAiApi提供了轻量级的Java客户端,用于连接到智谱AI API

这是一个如何以编程方式使用api的简单片段

ZhiPuAiApi zhiPuAiApi =
    new ZhiPuAiApi(System.getenv("ZHIPU_AI_API_KEY"));

ChatCompletionMessage chatCompletionMessage =
    new ChatCompletionMessage("Hello world", Role.USER);

// Sync request
ResponseEntity<ChatCompletion> response = this.zhiPuAiApi.chatCompletionEntity(
    new ChatCompletionRequest(List.of(this.chatCompletionMessage), ZhiPuAiApi.ChatModel.GLM_3_Turbo.getValue(), 0.7, false));

// Streaming request
Flux<ChatCompletionChunk> streamResponse = this.zhiPuAiApi.chatCompletionStream(
        new ChatCompletionRequest(List.of(this.chatCompletionMessage), ZhiPuAiApi.ChatModel.GLM_3_Turbo.getValue(), 0.7, true));

有关更多信息,请参阅ZhiPuAiApi.java的JavaDoc。

ZhiPuAiApi示例

  • ZhiPuAiApiIT.java测试提供了一些关于如何使用轻量级库的一般示例。