反馈概念
什么是反馈?
MLflow 中的**反馈**代表对您的 GenAI 应用程序输出执行的任何质量评估的结果。它提供了一种标准化的方式来捕获评估,无论这些评估是来自自动化系统、LLM 评判员还是人工审核员。
反馈是连接运行应用程序和理解其质量的桥梁,使您能够系统地跟踪在正确性、相关性、安全性和遵守准则等不同维度的性能。

附加到追踪的反馈
用例
手动质量检查
手动质量检查对于确保您的 GenAI 应用程序的质量非常重要。例如,您可以附加一个反馈来指示响应中的幻觉,并比较不同模型之间的质量。
最终用户反馈
最终用户的反馈对于提高您的 GenAI 应用程序的质量非常宝贵。通过在您的追踪中存储反馈,您可以轻松地监控应用程序随时间变化的用户满意度。
LLM 评判员评估
LLM 评判员是用于大规模系统地运行质量检查的强大工具。当使用 MLflow 的 GenAI 评估时,来自 LLM 评判员的反馈会附加到追踪中,使您能够以与手动质量检查统一的方式跟踪评估结果。
协作标注
质量检查通常由多个标注员执行,以确保输出的稳健性。MLflow 跟踪反馈的元数据和修订历史,并支持聚合来自多个标注员的反馈。
核心结构

反馈通常由不同的来源创建,例如人工标注员、LLM 评判员或应用程序中的真实用户反馈。MLflow 中的 Feedback
对象是一个标准容器,用于存储这些信号以及用于跟踪它们创建方式的元数据。反馈与一个追踪或追踪中的特定跨度相关联。
反馈对象模式
字段 | 类型 | 描述 |
---|---|---|
name | str | 一个字符串,用于标识正在评估的特定质量方面 |
value | Any | 实际的反馈值,可以是
|
rationale | str | 一个字符串,解释为什么向追踪提供该反馈。 |
source | AssessmentSource | 反馈的来源,由来源类型和 ID 组成。
|
error | Optional[AssessmentError] | 一个与反馈相关的可选错误。这用于指示反馈未成功处理,例如,来自 LLM 评判员执行的异常。 |
metadata | Optional[dict[str, str]] | 与反馈相关的可选键值对。 |
create_time_ms | int | 反馈创建时的时间戳,以毫秒为单位。 |
last_update_time_ms | int | 反馈更新时的时间戳,以毫秒为单位。 |
trace_id | str | 反馈所附加到的追踪的 ID。 |
span_id | Optional[str] | 反馈所附加到的跨度的 ID,如果它与追踪中的特定跨度相关联。例如,您可以对 RAG 应用程序中的特定检索器输出给出反馈。 |
反馈示例
针对响应中幻觉的人工反馈
{
"name": "hallucination",
"value": false,
"rationale": "The response is factual and does not contain any hallucinations.",
"source": {
"source_type": "HUMAN",
"source_id": "john@example.com"
}
}
针对事实准确性的 LLM 评判员反馈
{
"name": "factual_accuracy",
"value": 0.85,
"rationale": "The response correctly identifies 3 out of 4 key facts about MLflow, but incorrectly states the founding year.",
"source": {
"source_type": "LLM_JUDGE",
"source_id": "openai:/4o-mini"
},
"metadata": {
# Store link to the prompt used for the judge, registered in MLflow Prompt Registry
"judge_prompt": "prompts:factual_accuracy_judge/1"
}
}
来自 LLM 评判员的错误反馈(超出速率限制)
{
"name": "safety",
"error": {
"error_code": "RATE_LIMIT_EXCEEDED",
"error_message": "Rate limit for the judge exceeded.",
"stack_trace": "..."
},
"source": {
"source_type": "LLM_JUDGE",
"source_id": "openai:/4o-mini"
}
}