MLflow Tracing助力LLM可观测性
MLflow Tracing通过捕获请求的每个中间步骤所关联的输入、输出和元数据,增强了您应用程序中的LLM可观测性,使您能够轻松地查明错误和意外行为的根源。

贯穿ML生命周期的用例
MLflow Tracing在机器学习项目的端到端生命周期中为您提供支持。以下是它在工作流程的每个步骤中的帮助,请点击下方的选项卡以了解更多信息
- 构建与调试
- 人工反馈
- 评估
- 生产监控
- 数据集收集
评估和提升质量
系统性地评估和改进GenAI应用程序的质量是一项挑战。结合MLflow GenAI评估,MLflow为您提供了评估应用程序的无缝体验。
Tracing通过允许您跟踪质量评估并查看评估结果,同时洞察系统内部细节,从而提供帮助。

是什么让MLflow Tracing独一无二?
开源
MLflow是开源的,并且是100%免费的。您无需支付额外的SaaS费用即可为您的GenAI堆栈添加可观测性。您的trace数据托管在您自己的基础设施上。
OpenTelemetry
MLflow Tracing与OpenTelemetry兼容,使其摆脱了供应商锁定,易于与您现有的可观测性堆栈集成。
框架无关
MLflow Tracing与20多个GenAI库集成,包括OpenAI、LangChain、LlamaIndex、DSPy、Pydantic AI,使您能够轻松地在不同框架之间切换。
端到端平台
MLflow Tracing在机器学习生命周期的端到端过程中为您提供支持,并结合了其版本跟踪和评估能力。
强大的社区
MLflow作为Linux基金会的一部分,拥有一个充满活力的开源社区,拥有20K+的GitHub Star和2000万+的月下载量。
开始使用

快速入门(Python)
使用Python开始MLflow

快速入门(JS/TS)
使用JavaScript或TypeScript开始MLflow
跟踪您的应用程序
探索关于 instrumenting 您自己的应用程序或系统的实践指南
单行自动跟踪集成
MLflow Tracing已与各种GenAI库集成,并为每个库(以及它们的组合!)提供单行自动跟踪体验。
import mlflow
mlflow.openai.autolog() # or replace 'openai' with other library names, e.g., "anthropic"
点击下方的图标了解更多关于单独集成的详细信息
灵活且可定制
除了单行自动跟踪体验,MLflow还提供Python SDK,用于手动 instrumenting您的代码和操纵trace。
- 使用
@mlflow.trace装饰器跟踪函数 - 使用上下文管理器跟踪任何代码块
- 组合多个自动跟踪集成
- instrumenting 多线程应用程序
- 原生异步支持
- 使用会话分组和过滤trace
- 从trace中删除PII数据
- 全局禁用跟踪
- 配置采样率以控制trace吞吐量
生产就绪
MLflow Tracing已准备好投入生产,并为生产环境中的GenAI应用程序提供全面的监控能力。通过启用异步trace日志记录,trace日志记录将在后台进行,不会影响您应用程序的性能。
对于生产部署,建议使用轻量级跟踪SDK(mlflow-tracing),它经过优化,可减少总安装大小并最大限度地减少依赖项,同时保持完整的跟踪能力。与完整的mlflow包相比,mlflow-tracing包的占用空间小95%。
阅读生产监控以获取关于使用MLflow Tracing监控生产模型和各种后端配置选项的完整指南。






















