如何运行教程
本简要指南将引导您了解运行这些教程并拥有一个可用于记录结果的跟踪服务器(以及提供 MLflow UI 选项)的几种选择。
1. 下载 Notebook
您可以通过点击每个教程页面顶部的“下载 Notebook”按钮来下载教程 Notebook。
2. 安装 MLflow
通过运行以下命令从 PyPI 安装 MLflow
pip install mlflow
3. 设置 MLflow 跟踪服务器(可选)
直接访问模式(无跟踪服务器)
您可以在未设置跟踪服务器的情况下开始教程并记录模型、实验。在此模式下,您的实验数据和工件将直接保存在您当前的目录下。
虽然此模式是入门最简单的方式,但不建议用于一般用途
- 只有当您在同一目录下运行
mlflow ui
命令时,实验数据才会在 UI 上可见。 - 其他团队成员无法访问实验数据。
- 如果您不小心删除了目录,可能会丢失实验数据。
使用跟踪服务器运行(推荐)
MLflow 跟踪服务器是一个集中的 HTTP 服务器,无论您的代码在哪里运行,您都可以访问您的实验工件。要使用跟踪服务器,您可以在本地运行它,也可以使用托管服务。点击以下链接了解每种选项的更多信息
MLflow 可以在多种环境中运行,包括您的本地环境、本地集群、云平台和托管服务。作为一个开源平台,MLflow 是供应商中立的;无论您在哪里进行机器学习,您都可以使用 MLflow 的核心能力集,例如跟踪、评估、可观测性等等。
在本地运行 MLflow 服务器或使用直接访问模式(无需服务器)在您的本地环境中运行 MLflow。点击此卡片了解更多信息。

Databricks Managed MLflow 是一项免费、完全托管的解决方案,与 Databricks ML/AI 生态系统无缝集成,例如 Unity Catalog、模型服务等。
MLflow on Amazon SageMaker 是一项基于 AWS 基础设施的 MLflow 完全托管服务,与 SageMaker 的核心功能集成,例如 Studio、模型注册表和推理。

Azure Machine Learning 工作区与 MLflow 兼容,允许您以与使用 MLflow 服务器相同的方式使用 Azure Machine Learning 工作区。
Nebius,一个为 GenAI 探索者打造的尖端云平台,提供 MLflow 的完全托管服务,利用 MLflow 强大的实验跟踪功能简化 LLM 微调。

您可以在本地或云托管的 Kubernetes 集群上使用 MLflow。点击此卡片了解如何在您自己的基础设施上托管 MLflow。
💡 如果您不是 Databricks 用户,但想免费试用其托管的 MLflow 体验,我们建议使用 Databricks 免费试用版。它提供对 Databricks 工作区和服务的快速访问,具有有限的额度和时间限制,让您在几分钟内开始使用 MLflow 和其他 ML/AI 工具。
4. 连接 Notebook 与跟踪服务器
如果您使用 Databricks,可以跳过此部分,因为 Notebook 已连接到跟踪服务器和 MLflow 实验。
对于其他托管服务(例如 SageMaker、Nebius),请参考服务提供商提供的文档。
跟踪服务器启动后,通过调用 mlflow.set_tracking_uri("http://<your-mlflow-server>:<port>")
将您的 Notebook 连接到服务器。例如,如果您在本地端口 5000 上运行跟踪服务器,则应调用
mlflow.set_tracking_uri("http://localhost:5000")
这将确保所有 MLflow 运行、实验、跟踪和工件都记录到指定的跟踪服务器。
5. 准备运行!
现在您已经设置好 MLflow 环境,可以开始运行教程了。回到教程,享受学习 MLflow 的旅程吧!🚢