跳转至

指标

3.8 版本新特性

你现在可以使用基于 OpenTelemetry 的指标来衡量 CALM 对话机器人的性能。

指标是在运行时捕获的服务测量值,可作为可用性和性能的指标。指标可用于监控服务的运行状况、发出中断警报以及了解服务更改的影响。与追踪不同,指标旨在提供跨多条消息和对话的聚合统计信息,例如平均响应时间或吞吐量。

配置指标

要在 Rasa Pro 中启用指标收集,你必须使用 OTEL 收集器(OpenTelemetry Collector)收集指标,然后将其发送到你选择的后端。

要配置指标 OTEL 收集器,请将 metrics 条目添加到你的端点,即在 endpoints.yml 文件中,或在部署中 Helm 值的相关部分。

要配置 OTEL 收集器,请将 type 指定为 otlp

metrics:
  type: otlp
  endpoint: my-otlp-host:4318
  insecure: false
  service_name: rasa
  root_certificates: ./tests/unit/tracing/fixtures/ca.pem

请注意,指标必须与追踪一起使用才能提供系统的完整视图。

记录的指标

支持的自定义指标包括:

  • 进行 LLM 调用时基于 LLM 的命令生成器 (LLMCommandGeneratorSingleStepLLMCommandGeneratorMultiStepLLMCommandGenerator) 的 CPU 和内存使用情况。
  • 基于 LLM 的命令生成器的提示令牌使用情况(前提是启用了 trace_prompt_tokens 配置属性)。
  • 组件中 LLM 特定调用方法的调用持续时间测量,例如 IntentlessPolicyEnterpriseSearchPolicyContextualResponseRephraserLLMCommandGeneratorSingleStepLLMCommandGeneratorMultiStepLLMCommandGenerator
  • rasa 客户端 http 请求持续时间(例如到动作服务器或 NLG 服务器)。
  • rasa 客户端 http 请求大小(以字节为单位)。

弃用警告

之前的 LLMCommandGenerator 在版本 3.9.0 中已重命名为 SingleStepLLMCommandGenerator,同时保留了其功能。Rasa 4.0.0 中将不再支持以前的名称 LLMCommandGenerator。请修改你的对话机器人的配置以改用 SingleStepLLMCommandGenerator