MLflow + Tensorflow 入门
本指南将展示如何使用 Tensorflow 训练模型并使用 MLflow 记录训练过程。
我们将使用 Databricks 免费试用版,它内置支持 MLflow。Databricks 免费试用版提供了一个免费使用 Databricks 平台的机会,如果您还没有账号,请通过链接注册一个账号。
您可以在基于云的 Notebook 中运行本指南中的代码,例如 Databricks Notebook 或 Google Colab,也可以在本地机器上运行。
安装依赖
让我们安装 mlflow
包。
%pip install -q mlflow
然后导入所需的包。
import tensorflow as tf
import tensorflow_datasets as tfds
from tensorflow import keras
加载数据集
我们将使用 mnist 数据集对手写数字进行简单的图像分类。
让我们使用 tensorflow_datasets
(tfds
) 加载数据集,它以 tf.data.Dataset
格式返回数据集。
# Load the mnist dataset.
train_ds, test_ds = tfds.load(
"mnist",
split=["train", "test"],
shuffle_files=True,
)
Downloading and preparing dataset 11.06 MiB (download: 11.06 MiB, generated: 21.00 MiB, total: 32.06 MiB) to /root/tensorflow_datasets/mnist/3.0.1...
Dl Completed...: 0%| | 0/5 [00:00<?, ? file/s]
Dataset mnist downloaded and prepared to /root/tensorflow_datasets/mnist/3.0.1. Subsequent calls will reuse this data.
让我们按以下步骤预处理数据
- 将每个像素的值缩放到
[0, 1)
。 - 对数据集进行批量处理。
- 使用
prefetch
加快训练速度。
def preprocess_fn(data):
image = tf.cast(data["image"], tf.float32) / 255
label = data["label"]
return (image, label)
train_ds = train_ds.map(preprocess_fn).batch(128).prefetch(tf.data.AUTOTUNE)
test_ds = test_ds.map(preprocess_fn).batch(128).prefetch(tf.data.AUTOTUNE)
定义模型
让我们定义一个卷积神经网络作为分类器。我们可以使用 keras.Sequential
来堆叠层。
input_shape = (28, 28, 1)
num_classes = 10
model = keras.Sequential(
[
keras.Input(shape=input_shape),
keras.layers.Conv2D(32, kernel_size=(3, 3), activation="relu"),
keras.layers.MaxPooling2D(pool_size=(2, 2)),
keras.layers.Conv2D(64, kernel_size=(3, 3), activation="relu"),
keras.layers.MaxPooling2D(pool_size=(2, 2)),
keras.layers.Flatten(),
keras.layers.Dropout(0.5),
keras.layers.Dense(num_classes, activation="softmax"),
]
)
设置训练相关的配置、优化器、损失函数、指标。
model.compile(
loss=keras.losses.SparseCategoricalCrossentropy(),
optimizer=keras.optimizers.Adam(0.001),
metrics=[keras.metrics.SparseCategoricalAccuracy()],
)
设置跟踪/可视化工具
在本教程中,我们将使用 Databricks 免费试用版作为 MLflow 跟踪服务器。有关使用本地 MLflow 服务器等其他选项,请阅读跟踪服务器概览。
如果您还没有,请按照本指南设置您的 Databricks 免费试用版账号和访问令牌。注册过程不超过 5 分钟。Databricks 免费试用版是用户免费试用 Databricks 功能的一种方式。在本指南中,我们需要 ML 实验仪表板来跟踪我们的训练进度。
成功注册 Databricks 免费试用版账号后,让我们将 MLflow 连接到 Databricks Workspace。您需要输入以下信息
- Databricks 主机:https://<您的 workspace 主机>.cloud.databricks.com/
- 令牌:您的个人访问令牌
import mlflow
mlflow.login()
现在此 Colab 已连接到托管跟踪服务器。让我们配置 MLflow 元数据。需要设置两项内容
mlflow.set_tracking_uri
:始终使用 "databricks"。mlflow.set_experiment
:选择您喜欢的名称,以/
开头。
使用 MLflow 进行日志记录
您可以从 Tensorflow 流水线中通过两种方式将日志记录到 MLflow
- MLflow 自动日志记录。
- 使用回调。
自动日志记录配置简单,但控制程度较低。使用回调更灵活。让我们看看每种方式是如何进行的。
MLflow 自动日志记录
您只需在开始训练之前调用 mlflow.tensorflow.autolog()
,然后后端就会自动将指标记录到您之前配置的服务器中。在我们的例子中,是 Databricks Workspace。
# Choose any name that you like.
mlflow.set_experiment("/Users/<your email>/mlflow-tf-keras-mnist")
mlflow.tensorflow.autolog()
model.fit(x=train_ds, epochs=3)
2023/11/15 01:53:35 INFO mlflow.utils.autologging_utils: Created MLflow autologging run with ID '7c1db53e417b43f0a1d9e095c9943acb', which will track hyperparameters, performance metrics, model artifacts, and lineage information for the current tensorflow workflow
Epoch 1/3 469/469 [==============================] - 13s 7ms/step - loss: 0.3610 - sparse_categorical_accuracy: 0.8890 Epoch 2/3 469/469 [==============================] - 3s 6ms/step - loss: 0.1035 - sparse_categorical_accuracy: 0.9681 Epoch 3/3 469/469 [==============================] - 4s 8ms/step - loss: 0.0798 - sparse_categorical_accuracy: 0.9760
2023/11/15 01:54:05 WARNING mlflow.tensorflow: Failed to infer model signature: could not sample data to infer model signature: tuple index out of range 2023/11/15 01:54:05 WARNING mlflow.models.model: Model logged without a signature. Signatures will be required for upcoming model registry features as they validate model inputs and denote the expected schema of model outputs. Please visit https://www.mlflow.org/docs/2.8.1/models.html#set-signature-on-logged-model for instructions on setting a model signature on your logged model. 2023/11/15 01:54:05 WARNING mlflow.tensorflow: You are saving a TensorFlow Core model or Keras model without a signature. Inference with mlflow.pyfunc.spark_udf() will not work unless the model's pyfunc representation accepts pandas DataFrames as inference inputs. 2023/11/15 01:54:13 WARNING mlflow.utils.autologging_utils: MLflow autologging encountered a warning: "/usr/local/lib/python3.10/dist-packages/_distutils_hack/__init__.py:33: UserWarning: Setuptools is replacing distutils."
Uploading artifacts: 0%| | 0/11 [00:00<?, ?it/s]
2023/11/15 01:54:13 INFO mlflow.store.artifact.cloud_artifact_repo: The progress bar can be disabled by setting the environment variable MLFLOW_ENABLE_ARTIFACTS_PROGRESS_BAR to false
Uploading artifacts: 0%| | 0/1 [00:00<?, ?it/s]
<keras.src.callbacks.History at 0x7d48e6556b60>
在训练进行中时,您可以在仪表板中找到此训练运行。登录到您的 Databricks Workspace,然后单击“实验”选项卡。请参阅下面的屏幕截图:
点击“实验”按钮后,您将进入实验页面,在那里可以找到您的运行。点击最近的实验和运行,您可以在那里找到您的指标,类似于:
您可以点击指标查看图表。
让我们评估训练结果。
score = model.evaluate(test_ds)
print(f"Test loss: {score[0]:.4f}")
print(f"Test accuracy: {score[1]: .2f}")
79/79 [==============================] - 1s 12ms/step - loss: 0.0484 - sparse_categorical_accuracy: 0.9838 Test loss: 0.05 Test accuracy: 0.98
使用 MLflow 回调进行日志记录
自动日志记录功能强大且方便,但如果您希望采用更贴近 Tensorflow 流水线的方式,可以在 model.fit()
中使用 mlflow.tensorflow.MllflowCallback
,它会记录
- 您的模型配置、层、超参数等等。
- 训练统计数据,包括使用
model.compile()
配置的损失和指标。
from mlflow.tensorflow import MlflowCallback
# Turn off autologging.
mlflow.tensorflow.autolog(disable=True)
with mlflow.start_run() as run:
model.fit(
x=train_ds,
epochs=2,
callbacks=[MlflowCallback(run)],
)
Epoch 1/2 469/469 [==============================] - 5s 10ms/step - loss: 0.0473 - sparse_categorical_accuracy: 0.9851 Epoch 2/2 469/469 [==============================] - 4s 8ms/step - loss: 0.0432 - sparse_categorical_accuracy: 0.9866
前往 Databricks Workspace 实验视图,您将看到与之前类似的仪表板。
自定义 MLflow 回调
如果您想添加额外的日志记录逻辑,可以自定义 MLflow 回调。您可以从 keras.callbacks.Callback
派生并从头开始编写所有内容,或者从 mlflow.tensorflow.MllflowCallback
派生以添加您的自定义日志记录逻辑。
让我们看一个例子,我们想用损失值的对数来替换损失值并记录到 MLflow。
import math
# Create our own callback by subclassing `MlflowCallback`.
class MlflowCustomCallback(MlflowCallback):
def on_epoch_end(self, epoch, logs=None):
if not self.log_every_epoch:
return
loss = logs["loss"]
logs["log_loss"] = math.log(loss)
del logs["loss"]
mlflow.log_metrics(logs, epoch)
使用新的回调训练模型。
with mlflow.start_run() as run:
run_id = run.info.run_id
model.fit(
x=train_ds,
epochs=2,
callbacks=[MlflowCustomCallback(run)],
)
Epoch 1/2 469/469 [==============================] - 5s 10ms/step - loss: 0.0537 - sparse_categorical_accuracy: 0.9834 - log_loss: -2.9237 Epoch 2/2 469/469 [==============================] - 4s 9ms/step - loss: 0.0497 - sparse_categorical_accuracy: 0.9846 - log_loss: -3.0022
前往您的 Databricks Workspace 页面,您应该会发现 log_loss
替换了 loss
指标,类似于下面屏幕截图所示。
总结
现在您已经了解了 MLflow 和 Tensorflow 之间的基本集成。此快速入门指南中并未涵盖一些内容,例如将 TF 模型保存到 MLflow 并重新加载。有关详细指南,请参阅我们的 MLflow 和 Tensorflow 集成主指南。