跳到主要内容

跟踪 Ollama

Ollama Tracing via autolog

Ollama 是一个开源平台,使用户能够在本地设备上运行大型语言模型 (LLM),例如 Llama 3.2、Gemma 2、Mistral、Code Llama 等。

由于 Ollama 提供的本地 LLM 端点与 OpenAI API 兼容,您可以通过 OpenAI SDK 查询它,并使用 mlflow.openai.autolog() 为 Ollama 启用跟踪。通过 Ollama 进行的任何 LLM 交互都将记录到活动的 MLflow Experiment 中。

import mlflow

mlflow.openai.autolog()

示例用法

  1. 使用所需的 LLM 模型运行 Ollama 服务器。
ollama run llama3.2:1b
  1. 为 OpenAI SDK 启用自动跟踪。
import mlflow

# Enable auto-tracing for OpenAI
mlflow.openai.autolog()

# Optional: Set a tracking URI and an experiment
mlflow.set_tracking_uri("http://localhost:5000")
mlflow.set_experiment("Ollama")
  1. 查询 LLM 并在 MLflow UI 中查看跟踪信息。
from openai import OpenAI

client = OpenAI(
base_url="http://localhost:11434/v1", # The local Ollama REST endpoint
api_key="dummy", # Required to instantiate OpenAI client, it can be a random string
)

response = client.chat.completions.create(
model="llama3.2:1b",
messages=[
{"role": "system", "content": "You are a science teacher."},
{"role": "user", "content": "Why is the sky blue?"},
],
)

禁用自动跟踪

可以通过调用 mlflow.openai.autolog(disable=True)mlflow.autolog(disable=True) 全局禁用 Ollama 的自动跟踪。