跳到主要内容

MLflow Tracing 实现 LLM 可观测性

MLflow Tracing 通过捕获与请求的每个中间步骤相关的输入、输出和元数据,增强了您应用程序中的 LLM 可观测性,使您能够轻松查明错误和意外行为的来源。

Tracing Gateway Video

贯穿机器学习生命周期的用例

MLflow Tracing 在机器学习项目的整个端到端生命周期中为您提供支持。以下是它在工作流程的每个步骤中如何帮助您,点击下面的选项卡了解更多信息

在您的 IDE 或 Notebook 中调试问题

Trace(链路追踪)提供了对 GenAI 库抽象层下发生情况的深入洞察,帮助您精确识别问题所在。

您可以在您偏好的 IDE、Notebook 或 MLflow UI 中无缝导航 Trace,无需在多个标签页之间切换或在大量 Trace 列表中搜索。

了解更多 →

Trace Debugging

是什么让 MLflow Tracing 与众不同?

开源

MLflow 是开源且 100% 免费的。您无需支付额外的 SaaS 成本即可为您的 GenAI 技术栈添加可观测性。您的 Trace 数据托管在您自己的基础设施上。

OpenTelemetry

MLflow Tracing 与 OpenTelemetry 兼容,使其不受供应商锁定的限制,并易于与您现有的可观测性技术栈集成。

框架无关

MLflow Tracing 集成了 20 多个 GenAI 库,包括 OpenAI、LangChain、LlamaIndex、DSPy、Pydantic AI,让您可以轻松地在不同框架之间切换。

端到端平台

MLflow Tracing 结合其版本跟踪和评估功能,在整个端到端机器学习生命周期中为您提供支持。

强大的社区

MLflow 作为 Linux 基金会的一部分,拥有一个充满活力的开源社区,拥有超过 2 万个 GitHub Star 和每月超过 2000 万次下载。

开始使用

一行代码自动追踪集成

MLflow Tracing 与各种 GenAI 库集成,并为每个库(以及它们的组合!)提供一行代码的自动追踪体验。

import mlflow

mlflow.openai.autolog() # or replace 'openai' with other library names, e.g., "anthropic"

点击下方的徽标以了解有关各个集成的更多信息

OpenAI Logo
LangChain Logo
LangGraph Logo
LlamaIndex Logo
Anthropic Logo
DSPy Logo
Bedrock Logo
Semantic Kernel Logo
AutoGen Logo
AG2 Logo
Gemini Logo
LiteLLM Logo
CrewAI Logo
OpenAI Agent Logo
Ollama Logo
PydanticAI Logo
Smolagents Logo
Groq Logo
Mistral Logo
Instructor Logo
OpenAI Swarm Logo
DeepSeek Logo
txtai Logo

灵活且可定制

除了一行代码的自动追踪体验外,MLflow 还提供 Python SDK,用于手动对您的代码进行插桩和操作 Trace。

生产就绪

MLflow Tracing 已准备好用于生产环境,并为您的 GenAI 应用程序在生产环境中提供全面的监控功能。通过启用异步日志记录,追踪日志记录在后台完成,不会影响您应用程序的性能。

对于生产部署,建议使用轻量级追踪 SDK (mlflow-tracing),它经过优化,可减少总安装大小并最小化依赖关系,同时保持完整的追踪功能。与完整的 mlflow 包相比,mlflow-tracing 包所需的空间减少了 95%。

阅读生产监控,获取有关使用 MLflow Tracing 监控生产中模型以及各种后端配置选项的完整指南。