跳到主要内容

MLflow GenAI 打包集成

MLflow 3 内置支持打包和部署使用您所依赖的 GenAI 框架编写的应用程序。无论您是使用 LangChain 或 LangGraph 编排链、在 LlamaIndex 中索引文档、通过 ChatModel 和 ResponseAgent 搭建代理模式,还是使用 PythonModel 自行构建,MLflow 都提供了原生的打包和部署 API(“风格”),以简化您的生产路径。

OpenAI 模型日志记录已弃用

mlflow.openai.log_model() API 已弃用。如果您曾用它来保存提示,请迁移到 MLflow 提示注册表,它提供更优越的版本控制、别名、血缘跟踪和协作功能,用于将提示与模型分开管理。

为什么选择 MLflow 集成?

通过选择 MLflow 的原生风格,您可以在不更换工具的情况下获得端到端的可见性和控制力

  • 统一跟踪与模型:所有调用、参数、工件和提示模板都成为 MLflow 实验中被跟踪的实体。序列化的 GenAI 应用程序代码成为 LoggedModel——可以在 MLflow UI 和 API 中查看和引用。
  • 零样板设置:只需一个 mlflow.<flavor>.log_model(...) 调用(或一行自动检测代码),即可集成到您现有的代码中。
  • 默认实现可复现性:MLflow 会冻结您的提示模板、应用程序参数、框架版本和依赖项,以便您可以随时复现任何结果。
  • 无缝过渡到部署:每个集成都会生成一个标准化的 MLflow 模型,您可以使用 mlflow models serve 部署该模型进行批量评分或实时推理。

在几分钟内开始集成

在开始之前,请确保您已

  • 安装 Python 3.9+ 和 MLflow 3.x (pip install --upgrade 'mlflow[genai]')
  • 为您选择的提供商准备凭据或 API 密钥(例如 OPENAI_API_KEYANTHROPIC_API_KEY
  • 一个 MLflow 跟踪服务器(本地或远程)
准备深入了解了吗?

从下面的列表中选择您的集成,并遵循简明的指南——每个指南都可以在 10 分钟内让您开始运行。


集成指南

MLflow 支持以下 GenAI 框架和模式的一级风格。点击查看


继续您的旅程

一旦您的集成到位,就可以利用 MLflow 的完整 LLMOps 平台

🔍 可观测性与调试

🧪 评估与质量保证

🚀 部署与监控