跳到主要内容

MLflow GenAI 打包集成

MLflow 3 提供了内置支持,用于打包和部署使用您依赖的 GenAI 框架编写的应用程序。 无论您是直接调用 OpenAI,使用 LangChain 或 LangGraph 编排链,在 LlamaIndex 中索引文档,通过 ChatModel 和 ResponseAgent 连接代理模式,还是使用 PythonModel 推出您自己的,MLflow 都提供了原生的打包和部署 API(“flavors”),以简化您实现生产的路径。

为什么选择 MLflow 集成?

通过选择 MLflow 的原生 flavors,您可以获得端到端的可见性和控制,而无需更换工具

  • 统一的跟踪和模型:所有调用、参数、构件和提示模板都成为 MLflow Experiments 中的跟踪实体。序列化的 GenAI 应用程序代码成为 LoggedModel,可以在 MLflow UI 和 API 中查看和引用。
  • 零样板设置:只需一个 mlflow.<flavor>.log_model(...) 调用(或一行自动检测代码)即可连接到您现有的代码。
  • 默认的可重现性:MLflow 会冻结您的提示模板、应用程序参数、框架版本和依赖项,以便您可以随时重现任何结果。
  • 无缝过渡到服务:每个集成都会生成一个标准化的 MLflow 模型,您可以使用 mlflow models serve 部署该模型以进行批量评分或实时推理。

几分钟内开始集成

在开始之前,请确保您已安装

  • Python 3.9+ 和 MLflow 3.x(pip install --upgrade mlflow
  • 您选择的提供商的凭据或 API 密钥(例如,OPENAI_API_KEYANTHROPIC_API_KEY
  • MLflow 跟踪服务器(本地或远程)
准备好开始了吗?

从下面的列表中选择您的集成,然后按照简洁的指南进行操作 - 每个集成都可以在 10 分钟内启动并运行。


集成指南

MLflow 支持这些 GenAI 框架和模式的一方 flavors。点击以探索


继续您的旅程

完成集成后,充分利用 MLflow 的完整 LLMOps 平台

🔍 可观察性和调试

🧪 评估和质量保证

🚀 部署和监控