MLflow GenAI 集成
MLflow 3 为打包和部署您所依赖的 GenAI 框架编写的应用程序提供了内置支持。无论您是使用 LangChain 或 LangGraph 编排链,在 LlamaIndex 中索引文档,通过 ChatModel 和 ResponseAgent 连接代理模式,还是使用 PythonModel 自行开发,MLflow 都提供了原生的打包和部署 API(“flavors”),以简化您的生产路径。
OpenAI 模型日志记录已弃用
mlflow.openai.log_model() API 已弃用。如果您之前使用它来保存提示,请迁移到 MLflow Prompt Registry,它提供了更优越的版本控制、别名、血缘跟踪和协作功能,用于将提示与模型分开管理。
为什么选择 MLflow 集成?
通过选择 MLflow 的原生 flavors,您可以在不更换工具的情况下获得端到端的可见性和控制权
- 统一跟踪与模型:所有调用、参数、工件和提示模板都成为 MLflow Experiments 中的跟踪实体。序列化的 GenAI 应用程序代码将成为 LoggedModel,可在 MLflow UI 和 API 中查看和引用。
- 零样板代码设置:一个简单的
mlflow.<flavor>.log_model(...)调用(或一行自动instrumentation)即可集成到您现有的代码中。 - 默认可复现性:MLflow 会冻结您的提示模板、应用程序参数、框架版本和依赖项,以便您可以随时复现任何结果。
- 无缝过渡到服务:每个集成都会生成一个标准化的 MLflow Model,您可以使用
mlflow models serve为批处理评分或实时推理进行部署。
在几分钟内开始集成
在开始之前,请确保您已
- 安装了 Python 3.9+ 和 MLflow 3.x(
pip install --upgrade mlflow) - 您所选提供商的凭据或 API 密钥(例如,
OPENAI_API_KEY、ANTHROPIC_API_KEY) - MLflow 跟踪服务器(本地或远程)
准备好开始了吗?
从下面的列表中选择您的集成,并遵循简洁的指南——每个指南都可以在 10 分钟内让您上手。
集成指南
MLflow 支持以下 GenAI 框架和模式的一方 flavors。点击探索
继续您的旅程
集成到位后,可以利用 MLflow 全面的 LLMOps 平台


