跳到主要内容

DSPy 优化器自动日志记录

DSPy 优化器是一种算法,用于调整 DSPy 程序(即提示和/或 LM 权重)的参数,以最大化您指定的指标。然而,由于其黑盒性质,优化器面临以下挑战:

  1. 单个试验的参数和得分:优化过程中每个试验的程序参数(例如建议的指令和选择的演示)和性能未保存。
  2. 中间工件:中间程序的提示和模型响应不可用。虽然其中一些被打印出来,但没有简单的方法以结构化方式存储信息。
  3. 优化轨迹:很难从日志文本中了解优化轨迹的概况(例如,随时间变化的得分进展)。

MLflow DSPy flavor 提供了一种方便的方式来自动跟踪优化过程和结果。这使您可以更有效地分析优化过程和结果。

启用自动日志记录

要为 DSPy 优化启用自动日志记录,请在脚本或笔记本的开头调用 mlflow.dspy.autolog() 并使用以下参数。这将根据配置自动记录程序执行的跟踪以及其他指标和工件,例如程序状态、训练数据集和评估结果。请注意,优化器自动日志记录功能自 MLflow 2.21.1 起可用。

import mlflow

mlflow.dspy.autolog(log_compiles=True, log_evals=True, log_traces_from_compile=True)

# Your DSPy code here
...
目标默认值参数描述
跟踪truelog_traces是否为程序生成和记录跟踪。有关跟踪功能的更多详细信息,请参阅MLflow 跟踪
优化期间的跟踪falselog_traces_from_compileMLflow 默认情况下不会为优化期间的程序调用生成跟踪。设置为 True 以查看优化期间程序调用的跟踪。
评估期间的跟踪Truelog_traces_from_eval如果设置为 True,MLflow 会为评估期间的程序调用生成跟踪。
优化falselog_compiles如果设置为 True,则为每个 Teleprompter.compile 调用创建一个 MLflow 运行,并记录优化的指标和工件。
评估falselog_evals如果设置为 True,则为每个 Evaluate.__call__ 调用创建一个 MLflow 运行,并记录评估的指标和工件。

DSPy 优化器自动日志记录示例代码

import dspy
from dspy.datasets.gsm8k import GSM8K, gsm8k_metric
import mlflow

# Enabling tracing for DSPy
mlflow.dspy.autolog(log_compiles=True, log_evals=True, log_traces_from_compile=True)

# Optional: Set a tracking URI and an experiment
mlflow.set_tracking_uri("https://:5000")
mlflow.set_experiment("DSPy")

lm = dspy.LM(model="openai/gpt-3.5-turbo", max_tokens=250)
dspy.configure(lm=lm)

gsm8k = GSM8K()

trainset = gsm8k.train
devset = gsm8k.dev[:50]

program = dspy.ChainOfThought("question -> answer")

# define a teleprompter
teleprompter = dspy.teleprompt.MIPROv2(
metric=gsm8k_metric,
auto="light",
)
# run the optimizer
optimized_program = teleprompter.compile(
program,
trainset=trainset,
max_bootstrapped_demos=3,
max_labeled_demos=4,
requires_permission_to_run=False,
)

记录了什么?

MLflow 优化器自动日志记录记录以下信息:

  • 优化器参数:优化器的超参数(例如演示的数量)。
  • 优化程序:MLflow 自动将优化程序的 estados 保存为 JSON 工件。
  • 数据集:优化中使用的训练和评估数据集。
  • 指标的总体进展:指标随时间变化的进展被捕获为编译运行的逐步指标。
  • 中间程序状态和指标:程序状态和每次评估的性能指标都捕获在评估运行中。
  • 跟踪:每个中间程序的跟踪都捕获在评估运行中。

log_compileslog_evals 都设置为 True 时,MLflow 会为 Teleprompter.compile 创建一个运行,并为 Evaluate.__call__ 调用创建子运行。在 MLflow UI 中,它们按层次结构显示,如下所示:

Experiment Page

在父运行(编译调用)的运行页面中,优化器参数显示为运行参数。程序性能的进展显示为模型指标,优化中使用的数据集显示为工件。当存在多种类型的评估调用时(例如,完整数据集评估和迷你批次评估),评估结果会单独记录。

Parent Run

在子运行(评估调用)的运行页面中,中间程序状态显示为运行参数,性能指标显示为模型指标,并且程序的跟踪在跟踪选项卡中可用。

Child Run

常见问题

如何将我的优化和评估记录到同一个运行中?

要将优化和评估都记录到同一个运行中,您可以手动使用 mlflow.start_run 创建一个父运行,并在该运行中执行您的优化和评估。

with mlflow.start_run(run_name="My Optimization Run") as run:
optimized_program = teleprompter.compile(
program,
trainset=trainset,
)
evaluation = dspy.Evaluate(devset=devset, metric=metric)
evaluation(optimized_program)