跳到主要内容

MLflow Tracing for LLM 可观测性

MLflow Tracing 是一个完全与 OpenTelemetry 兼容的 LLM 可观测性解决方案,适用于您的应用程序。它可以捕获请求的每个中间步骤相关的输入、输出和元数据,让您轻松定位 bug 和意外行为的根源。

贯穿 ML 生命周期用例

MLflow Tracing 可在机器学习项目的整个生命周期中为您提供支持。以下是它在工作流程的每个步骤中的帮助,点击下面的选项卡了解更多信息

在 IDE 或 Notebook 中调试问题

Trace(跟踪)提供了对 GenAI 库抽象之下发生的深入洞察,帮助您精确地识别问题发生的地点。

您可以无缝地在您喜欢的 IDE、Notebook 或 MLflow UI 中导航 Trace,无需在多个标签页之间切换或搜索大量 Trace 列表。

了解更多 →

Trace Debugging

MLflow Tracing 的独特之处是什么?

开源

MLflow 是开源且 100% 免费的。您无需支付额外的 SaaS 成本即可为您的 GenAI 堆栈添加可观测性。您的 Trace 数据托管在您自己的基础设施上。

OpenTelemetry

MLflow Tracing 完全兼容 OpenTelemetry,使其不受供应商锁定,并且易于与您现有的可观测性堆栈集成。

框架无关

MLflow Tracing 集成了 20 多个 GenAI 库,包括 OpenAI、LangChain、LlamaIndex、DSPy、Pydantic AI,让您可以轻松地在不同框架之间切换。

端到端平台

MLflow Tracing 在整个机器学习生命周期中为您提供支持,并结合了版本跟踪和评估功能。

强大的社区

MLflow 拥有充满活力的开源社区,是 Linux 基金会的一部分,拥有 20K+ GitHub Star 和 2000 万+ 月下载量。

开始使用

单行自动 Trace 集成

MLflow Tracing 集成了各种 GenAI 库,例如 OpenAI、LangChain、DSPy、Vercel AI,并为每个库(以及它们的组合!)提供单行自动 Trace 体验。

python
import mlflow

mlflow.openai.autolog() # or replace 'openai' with other library names, e.g., "anthropic"

集成页面查看支持的库列表和详细的设置说明。

灵活且可定制

除了单行自动 Trace 体验外,MLflow 还提供了 Python SDK,用于手动仪器化您的代码和操作 Trace。

生产就绪

MLflow Tracing 已准备好用于生产环境,并为生产环境中的 GenAI 应用程序提供全面的监控功能。通过启用异步日志记录,Trace 日志记录将在后台进行,不会影响您应用程序的性能。

对于生产部署,建议使用轻量级 Tracing SDK (mlflow-tracing),该 SDK 经过优化,可减小总安装大小和最小化依赖项,同时保持完整的 Tracing 功能。与完整的 mlflow 包相比,mlflow-tracing 包的占用空间减少了 95%。

阅读生产环境监控以获取关于使用 MLflow Tracing 监控生产环境中的模型和各种后端配置选项的完整指南。