MLflow GenAI 打包集成
MLflow 3 提供内置支持,用于打包和部署使用您所依赖的 GenAI 框架编写的应用程序。无论您是直接调用 OpenAI,使用 LangChain 或 LangGraph 编排链,在 LlamaIndex 中索引文档,通过 ChatModel 和 ResponseAgent 连接代理模式,还是使用 PythonModel 自行开发,MLflow 都提供了原生打包和部署 API(“口味”),以简化您投入生产的路径。
为什么选择 MLflow 集成?
选择 MLflow 的原生口味,您无需切换工具即可获得端到端的可见性和控制
- 统一跟踪和模型:所有调用、参数、工件和提示模板都成为 MLflow 实验中跟踪的实体。序列化的 GenAI 应用程序代码成为 LoggedModel——可在 MLflow UI 和 API 中查看和引用。
- 零样板设置:一个简单的
mlflow.<flavor>.log_model(...)
调用(或一行自动检测代码)即可接入您现有代码。 - 默认可复现性:MLflow 冻结您的提示模板、应用程序参数、框架版本和依赖项,因此您可以随时复现任何结果。
- 无缝过渡到服务:每个集成都会生成一个标准化的 MLflow 模型,您可以使用
mlflow models serve
部署该模型进行批处理评分或实时推理。
几分钟内开始集成
开始之前,请确保您已具备以下条件:
- 已安装 Python 3.9+ 和 MLflow 3.x (
pip install --upgrade mlflow
) - 您所选提供商的凭据或 API 密钥(例如,
OPENAI_API_KEY
,ANTHROPIC_API_KEY
) - 一个 MLflow 跟踪服务器(本地或远程)
准备好深入研究了吗?
从下面的列表中选择您的集成,并按照简洁的指南进行操作——每个指南都能让您在 10 分钟内启动并运行。
集成指南
MLflow 支持这些 GenAI 框架和模式的第一方口味。点击探索
继续您的旅程
集成到位后,即可充分利用 MLflow 的完整 LLMOps 平台