mlflow.langchain
- mlflow.langchain.autolog(disable=False, exclusive=False, disable_for_unsupported_versions=False, silent=False, log_traces=True, run_tracer_inline=False)[源]
注意
自动日志记录已知与以下软件包版本兼容:
0.3.15<=langchain<=1.2.3。 在此范围之外的软件包版本中使用自动日志记录可能不会成功。启用(或禁用)并配置从 Langchain 到 MLflow 的自动日志记录。
- 参数
disable – 如果为
True,则禁用 Langchain 自动日志记录集成。如果为False,则启用 Langchain 自动日志记录集成。exclusive – 如果为
True,则自动记录的内容不会记录到用户创建的流畅运行中。如果为False,则自动记录的内容将记录到活动的流畅运行中,该运行可能是用户创建的。disable_for_unsupported_versions – 如果为
True,则禁用对尚未与此版本的 MLflow 客户端进行测试或不兼容的 langchain 版本的自动日志记录。silent – 如果为
True,则在 Langchain 自动日志记录期间抑制来自 MLflow 的所有事件日志和警告。如果为False,则在 Langchain 自动日志记录期间显示所有事件和警告。log_traces – 如果为
True,则在推理过程中使用 MlflowLangchainTracer 作为回调来记录 Langchain 模型的跟踪信息。如果为False,则在推理过程中不收集跟踪信息。默认为True。run_tracer_inline – 如果为
True,则 MLflow 跟踪器回调将在主异步任务中运行,而不是卸载到线程池中。这确保了在异步场景(例如 LangGraph 的ainvoke)中将自动日志跟踪与手动@mlflow.trace装饰器结合使用时,上下文传播是正确的。默认为False以向后兼容。如果在使用手动@mlflow.trace装饰器(在 LangGraph 节点或工具中)并且需要在自动日志跟踪中正确嵌套它们,请将其设置为True。
- mlflow.langchain.load_model(model_uri, dst_path=None)[源]
注意
“langchain” MLflow 模型集成已知与
0.3.15<=langchain<=1.2.3兼容。 在此范围之外的软件包版本中使用 langchain 进行 MLflow 模型集成可能不会成功。从本地文件或运行中加载 LangChain 模型。
- 参数
model_uri –
MLflow 模型在 URI 格式中的位置。例如:
/Users/me/path/to/local/modelrelative/path/to/local/models3://my_bucket/path/to/modelruns:/<mlflow_run_id>/run-relative/path/to/model
有关支持的 URI 方案的更多信息,请参阅 引用 Artifacts。
dst_path – The local filesystem path to which to download the model artifact. This directory must already exist. If unspecified, a local output path will be created.
- 返回
一个 LangChain 模型实例。
- mlflow.langchain.log_model(lc_model, artifact_path: str | None = None, conda_env=None, code_paths=None, registered_model_name=None, signature: mlflow.models.signature.ModelSignature = None, input_example: Union[pandas.core.frame.DataFrame, numpy.ndarray, dict, list, csr_matrix, csc_matrix, str, bytes, tuple] = None, await_registration_for=300, pip_requirements=None, extra_pip_requirements=None, metadata=None, loader_fn=None, persist_dir=None, run_id=None, model_config=None, streamable=None, resources: list[mlflow.models.resources.Resource] | str | None = None, prompts: list[str | Prompt] | None = None, name: str | None = None, params: dict[str, typing.Any] | None = None, tags: dict[str, typing.Any] | None = None, model_type: str | None = None, step: int = 0, model_id: str | None = None)[源]
注意
“langchain” MLflow 模型集成已知与
0.3.15<=langchain<=1.2.3兼容。 在此范围之外的软件包版本中使用 langchain 进行 MLflow 模型集成可能不会成功。将 LangChain 模型作为 MLflow artifact 记录到当前运行中。
- 参数
lc_model –
LangChain 模型,它可以是 Chain、Agent 或 retriever,或者是包含上述类型的 LangChain 模型代码的路径(<https://github.com/mlflow/mlflow/blob/master/examples/langchain/chain_as_code_driver.py>)。使用模型作为路径时,请确保使用
mlflow.models.set_model()设置模型。注意
实验性:使用模型作为路径可能会在未来版本中更改或移除,恕不另行通知。
artifact_path – Deprecated. Use name instead.
conda_env –
Conda 环境的字典表示形式或本地文件系统上 conda 环境 yaml 文件的路径。如果提供,这描述了模型应运行的环境。它至少应指定 get_default_conda_env() 中包含的依赖项。如果为
None,则会向模型添加通过mlflow.models.infer_pip_requirements()从当前软件环境中推断出的 pip 要求。如果要求推断失败,它将回退到使用 get_default_pip_requirements。conda_env中的 pip 要求将被写入一个 piprequirements.txt文件,完整的 conda 环境将被写入conda.yaml。以下是 conda 环境的示例字典表示形式{ "name": "mlflow-env", "channels": ["conda-forge"], "dependencies": [ "python=3.8.15", { "pip": [ "langchain==x.y.z" ], }, ], }
code_paths –
A list of local filesystem paths to Python file dependencies (or directories containing file dependencies). These files are prepended to the system path when the model is loaded. Files declared as dependencies for a given model should have relative imports declared from a common root path if multiple files are defined with import dependencies between them to avoid import errors when loading the model.
For a detailed explanation of
code_pathsfunctionality, recommended usage patterns and limitations, see the code_paths usage guide.registered_model_name – 如果提供,则在
registered_model_name下创建一个模型版本,如果给定名称的注册模型不存在,也会创建该注册模型。signature –
ModelSignature描述模型输入和输出Schema。如果未指定,模型签名将根据 lc_model.input_keys 和 lc_model.output_keys 作为列名,以及DataType.string作为列类型设置。或者,您可以明确指定模型签名。模型签名可以从具有有效模型输入(例如省略目标列的训练数据集)和有效模型输出(例如在训练数据集上生成的模型预测)的数据集中推断出来,例如from mlflow.models import infer_signature chain = LLMChain(llm=llm, prompt=prompt) prediction = chain.run(input_str) input_columns = [ {"type": "string", "name": input_key} for input_key in chain.input_keys ] signature = infer_signature(input_columns, predictions)
input_example – 一个或多个有效的模型输入实例。输入示例用作要馈送给模型的数据的提示。它将被转换为 Pandas DataFrame,然后使用 Pandas 的面向拆分(split-oriented)格式序列化为 json,或者转换为 numpy 数组,其中示例将通过转换为列表来序列化为 json。字节将进行 base64 编码。当
signature参数为None时,输入示例用于推断模型签名。await_registration_for – 等待模型版本完成创建并处于
READY状态的秒数。默认情况下,函数等待五分钟。指定 0 或 None 可跳过等待。pip_requirements – 要么是 pip 要求字符串的可迭代对象(例如
["langchain", "-r requirements.txt", "-c constraints.txt"]),要么是本地文件系统上 pip 要求文件的字符串路径(例如"requirements.txt")。如果提供,这描述了模型应运行的环境。如果为None,则通过mlflow.models.infer_pip_requirements()从当前软件环境中推断出默认的要求列表。如果要求推断失败,它将回退到使用 get_default_pip_requirements。要求和约束都会被自动解析并写入requirements.txt和constraints.txt文件,并作为模型的一部分存储。要求也会被写入模型 conda 环境(conda.yaml)文件的pip部分。extra_pip_requirements –
要 么是 pip 要求字符串的可迭代对象(例如
["pandas", "-r requirements.txt", "-c constraints.txt"]),要么是本地文件系统上 pip 要求文件的字符串路径(例如"requirements.txt")。如果提供,这描述了将附加到根据用户当前软件环境自动生成的默认 pip 要求集中的附加 pip 要求。要求和约束都会被自动解析并写入requirements.txt和constraints.txt文件,并作为模型的一部分存储。要求也会被写入模型 conda 环境(conda.yaml)文件的pip部分。警告
以下参数不能同时指定
conda_envpip_requirementsextra_pip_requirements
此示例演示了如何使用
pip_requirements和extra_pip_requirements指定 pip requirements。metadata – 传递给模型并存储在 MLmodel 文件中的自定义元数据字典。
loader_fn –
一个函数,对于包含 LangChain 未原生序列化的对象的模型是必需的。此函数接受一个字符串 persist_dir 作为参数,并返回模型所需的特定对象。根据模型,这可能是一个 retriever、vectorstore、requests_wrapper、embeddings 或 database。对于 RetrievalQA Chain 和 retriever 模型,该对象是(retriever)。对于 APIChain 模型,它是(requests_wrapper)。对于 HypotheticalDocumentEmbedder 模型,它是(embeddings)。对于 SQLDatabaseChain 模型,它是(database)。
persist_dir –
存储对象的目录。loader_fn 接受此字符串作为参数来加载对象。对于包含 LangChain 未原生序列化对象的模型,这是可选的。MLflow 将此目录中的内容作为 artifact 记录在名为 persist_dir_data 的子目录中。
以下是使用 loader_fn 和 persist_dir 记录 RetrievalQA 链的代码片段
注意
在 langchain_community >= 0.0.27 中,加载 pickled 数据需要提供
allow_dangerous_deserialization参数。qa = RetrievalQA.from_llm(llm=OpenAI(), retriever=db.as_retriever()) def load_retriever(persist_directory): embeddings = OpenAIEmbeddings() vectorstore = FAISS.load_local( persist_directory, embeddings, # you may need to add the line below # for langchain_community >= 0.0.27 allow_dangerous_deserialization=True, ) return vectorstore.as_retriever() with mlflow.start_run() as run: logged_model = mlflow.langchain.log_model( qa, name="retrieval_qa", loader_fn=load_retriever, persist_dir=persist_dir, )
请参阅 examples/langchain/retrieval_qa_chain.py 中的完整示例。
run_id – 与此模型版本关联的 run_id。如果指定,我们将恢复运行并将模型记录到该运行中。否则,将创建一个新运行。默认为 None。
model_config –
从代码保存模型时要应用于模型的模型配置。此配置在模型加载时可用。
注意
Experimental: This parameter may change or be removed in a future release without warning. (实验性:此参数可能在未来的版本中更改或移除,恕不另行通知。)
streamable – 一个布尔值,指示模型是否支持流式预测。如果为 True,模型必须实现 stream 方法。如果为 None,如果模型实现 stream 方法,则将 streamable 设置为 True。默认为 None。
resources – 模型资源的列表或包含服务模型所需资源列表的 resources.yaml 文件。如果记录具有依赖项的 LangChain 模型(例如对 LLM 模型服务端点的依赖项),我们鼓励通过此参数明确传递依赖项。否则,
log_model将尝试推断依赖项,但依赖项自动推断是尽力而为的,可能会遗漏一些依赖项。prompts –
与模型关联的 MLflow 提示注册表中已注册的提示 URI 列表。每个提示 URI 格式应为
prompt:/<name>/<version>。应在将提示与模型关联之前在 MLflow 提示注册表中注册这些提示。这将创建模型和提示之间的双向链接。关联的提示可以在 MLmodel 文件中存储的模型元数据中看到。从提示注册表 UI,您也可以导航到模型。
import mlflow prompt_template = "Hi, {name}! How are you doing today?" # Register a prompt in the MLflow Prompt Registry mlflow.prompts.register_prompt("my_prompt", prompt_template, description="A simple prompt") # Log a model with the registered prompt with mlflow.start_run(): model_info = mlflow.pyfunc.log_model( name=MyModel(), name="model", prompts=["prompt:/my_prompt/1"] ) print(model_info.prompts) # Output: ['prompt:/my_prompt/1'] # Load the prompt prompt = mlflow.genai.load_prompt(model_info.prompts[0])
name – 模型名称。
params – 要与模型一起记录的参数字典。
tags – 要与模型一起记录的标签字典。
model_type – 模型的类型。
step – 记录模型输出和指标的步骤
model_id – 模型的 ID。
- 返回
一个
ModelInfo实例,其中包含已记录模型的元数据。
- mlflow.langchain.save_model(lc_model, path, conda_env=None, code_paths=None, mlflow_model=None, signature: mlflow.models.signature.ModelSignature = None, input_example: Union[pandas.core.frame.DataFrame, numpy.ndarray, dict, list, csr_matrix, csc_matrix, str, bytes, tuple] = None, pip_requirements=None, extra_pip_requirements=None, metadata=None, loader_fn=None, persist_dir=None, model_config=None, streamable: bool | None = None)[源]
注意
“langchain” MLflow 模型集成已知与
0.3.15<=langchain<=1.2.3兼容。 在此范围之外的软件包版本中使用 langchain 进行 MLflow 模型集成可能不会成功。将 LangChain 模型保存到本地文件系统的路径。
- 参数
lc_model –
LangChain 模型,它可以是 Chain、Agent、retriever 或 RunnableSequence,或者是包含上述类型的 LangChain 模型代码的路径(<https://github.com/mlflow/mlflow/blob/master/examples/langchain/chain_as_code_driver.py>)。使用模型作为路径时,请确保使用
mlflow.models.set_model()设置模型。注意
实验性:使用模型作为路径可能会在未来版本中更改或移除,恕不另行通知。
path – 要保存序列化模型(作为 YAML)的本地路径。
conda_env –
Conda 环境的字典表示形式或本地文件系统上 conda 环境 yaml 文件的路径。如果提供,这描述了模型应运行的环境。它至少应指定 get_default_conda_env() 中包含的依赖项。如果为
None,则会向模型添加通过mlflow.models.infer_pip_requirements()从当前软件环境中推断出的 pip 要求。如果要求推断失败,它将回退到使用 get_default_pip_requirements。conda_env中的 pip 要求将被写入一个 piprequirements.txt文件,完整的 conda 环境将被写入conda.yaml。以下是 conda 环境的示例字典表示形式{ "name": "mlflow-env", "channels": ["conda-forge"], "dependencies": [ "python=3.8.15", { "pip": [ "langchain==x.y.z" ], }, ], }
code_paths –
A list of local filesystem paths to Python file dependencies (or directories containing file dependencies). These files are prepended to the system path when the model is loaded. Files declared as dependencies for a given model should have relative imports declared from a common root path if multiple files are defined with import dependencies between them to avoid import errors when loading the model.
For a detailed explanation of
code_pathsfunctionality, recommended usage patterns and limitations, see the code_paths usage guide.mlflow_model – 要添加此 flavor 的
mlflow.models.Model。signature –
ModelSignature描述模型输入和输出Schema。如果未指定,模型签名将根据 lc_model.input_keys 和 lc_model.output_keys 作为列名,以及DataType.string作为列类型设置。或者,您可以明确指定模型签名。模型签名可以从具有有效模型输入(例如省略目标列的训练数据集)和有效模型输出(例如在训练数据集上生成的模型预测)的数据集中推断出来,例如from mlflow.models import infer_signature chain = LLMChain(llm=llm, prompt=prompt) prediction = chain.run(input_str) input_columns = [ {"type": "string", "name": input_key} for input_key in chain.input_keys ] signature = infer_signature(input_columns, predictions)
input_example – 一个或多个有效的模型输入实例。输入示例用作要馈送给模型的数据的提示。它将被转换为 Pandas DataFrame,然后使用 Pandas 的面向拆分(split-oriented)格式序列化为 json,或者转换为 numpy 数组,其中示例将通过转换为列表来序列化为 json。字节将进行 base64 编码。当
signature参数为None时,输入示例用于推断模型签名。pip_requirements – 要么是 pip 要求字符串的可迭代对象(例如
["langchain", "-r requirements.txt", "-c constraints.txt"]),要么是本地文件系统上 pip 要求文件的字符串路径(例如"requirements.txt")。如果提供,这描述了模型应运行的环境。如果为None,则通过mlflow.models.infer_pip_requirements()从当前软件环境中推断出默认的要求列表。如果要求推断失败,它将回退到使用 get_default_pip_requirements。要求和约束都会被自动解析并写入requirements.txt和constraints.txt文件,并作为模型的一部分存储。要求也会被写入模型 conda 环境(conda.yaml)文件的pip部分。extra_pip_requirements –
要 么是 pip 要求字符串的可迭代对象(例如
["pandas", "-r requirements.txt", "-c constraints.txt"]),要么是本地文件系统上 pip 要求文件的字符串路径(例如"requirements.txt")。如果提供,这描述了将附加到根据用户当前软件环境自动生成的默认 pip 要求集中的附加 pip 要求。要求和约束都会被自动解析并写入requirements.txt和constraints.txt文件,并作为模型的一部分存储。要求也会被写入模型 conda 环境(conda.yaml)文件的pip部分。警告
以下参数不能同时指定
conda_envpip_requirementsextra_pip_requirements
此示例演示了如何使用
pip_requirements和extra_pip_requirements指定 pip requirements。metadata – 传递给模型并存储在 MLmodel 文件中的自定义元数据字典。
loader_fn –
一个函数,对于包含 LangChain 未原生序列化的对象的模型是必需的。此函数接受一个字符串 persist_dir 作为参数,并返回模型所需的特定对象。根据模型,这可能是一个 retriever、vectorstore、requests_wrapper、embeddings 或 database。对于 RetrievalQA Chain 和 retriever 模型,该对象是(retriever)。对于 APIChain 模型,它是(requests_wrapper)。对于 HypotheticalDocumentEmbedder 模型,它是(embeddings)。对于 SQLDatabaseChain 模型,它是(database)。
persist_dir –
存储对象的目录。loader_fn 接受此字符串作为参数来加载对象。对于包含 LangChain 未原生序列化对象的模型,这是可选的。MLflow 将此目录中的内容作为 artifact 记录在名为 persist_dir_data 的子目录中。
以下是使用 loader_fn 和 persist_dir 记录 RetrievalQA 链的代码片段
注意
在 langchain_community >= 0.0.27 中,加载 pickled 数据需要提供
allow_dangerous_deserialization参数。qa = RetrievalQA.from_llm(llm=OpenAI(), retriever=db.as_retriever()) def load_retriever(persist_directory): embeddings = OpenAIEmbeddings() vectorstore = FAISS.load_local( persist_directory, embeddings, # you may need to add the line below # for langchain_community >= 0.0.27 allow_dangerous_deserialization=True, ) return vectorstore.as_retriever() with mlflow.start_run() as run: logged_model = mlflow.langchain.log_model( qa, name="retrieval_qa", loader_fn=load_retriever, persist_dir=persist_dir, )
请参阅 examples/langchain/retrieval_qa_chain.py 中的完整示例。
model_config –
从代码保存模型时要应用于模型的模型配置。此配置在模型加载时可用。
注意
Experimental: This parameter may change or be removed in a future release without warning. (实验性:此参数可能在未来的版本中更改或移除,恕不另行通知。)
streamable – 一个布尔值,指示模型是否支持流式预测。如果为 True,模型必须实现 stream 方法。如果为 None,如果模型实现 stream 方法,则将 streamable 设置为 True。默认为 None。
- class mlflow.langchain.chat_agent_langgraph.ChatAgentState[源]
帮助类,它允许构建一个 LangGraph Agent,该 Agent 在更新状态时生成与 ChatAgent 兼容的消息。其他 ChatAgent 请求字段(custom_inputs, context)和响应字段(custom_outputs)也通过状态暴露,因此可以在 Agent 执行过程中使用和更新它们。将此类与
ChatAgentToolNode一起使用。LangGraph ChatAgent 示例
此示例已测试可与 LangGraph 0.2.70 配合使用。
步骤 1:创建 LangGraph Agent
此示例改编自 LangGraph 的 create_react_agent 文档。主要区别在于使它们与 ChatAgent 兼容的更改。它们包括
我们使用
ChatAgentState,它具有ChatAgentMessage对象的内部状态和底层的custom_outputs属性我们使用
ChatAgentToolNode而不是 LangGraph 的 ToolNode,以便能够从 LangChain 和 UnityCatalog 工具返回附件和 custom_outputs
from typing import Optional, Sequence, Union from langchain_core.language_models import LanguageModelLike from langchain_core.runnables import RunnableConfig, RunnableLambda from langchain_core.tools import BaseTool from langgraph.graph import END, StateGraph from langgraph.graph.state import CompiledStateGraph from langgraph.prebuilt import ToolNode from mlflow.langchain.chat_agent_langgraph import ChatAgentState, ChatAgentToolNode def create_tool_calling_agent( model: LanguageModelLike, tools: Union[ToolNode, Sequence[BaseTool]], agent_prompt: Optional[str] = None, ) -> CompiledStateGraph: model = model.bind_tools(tools) def routing_logic(state: ChatAgentState): last_message = state["messages"][-1] if last_message.get("tool_calls"): return "continue" else: return "end" if agent_prompt: system_message = {"role": "system", "content": agent_prompt} preprocessor = RunnableLambda( lambda state: [system_message] + state["messages"] ) else: preprocessor = RunnableLambda(lambda state: state["messages"]) model_runnable = preprocessor | model def call_model( state: ChatAgentState, config: RunnableConfig, ): response = model_runnable.invoke(state, config) return {"messages": [response]} workflow = StateGraph(ChatAgentState) workflow.add_node("agent", RunnableLambda(call_model)) workflow.add_node("tools", ChatAgentToolNode(tools)) workflow.set_entry_point("agent") workflow.add_conditional_edges( "agent", routing_logic, { "continue": "tools", "end": END, }, ) workflow.add_edge("tools", "agent") return workflow.compile()
步骤 2:定义 LLM 和您的工具
如果您想从工具返回附件和 custom_outputs,可以返回一个包含键 “content”、“attachments” 和 “custom_outputs” 的字典。此字典将由 ChatAgentToolNode 解析,并正确存储在 LangGraph 的状态中。
from random import randint from typing import Any from databricks_langchain import ChatDatabricks from langchain_core.tools import tool @tool def generate_random_ints(min: int, max: int, size: int) -> dict[str, Any]: """Generate size random ints in the range [min, max].""" attachments = {"min": min, "max": max} custom_outputs = [randint(min, max) for _ in range(size)] content = f"Successfully generated array of {size} random ints in [{min}, {max}]." return { "content": content, "attachments": attachments, "custom_outputs": {"random_nums": custom_outputs}, } mlflow.langchain.autolog() tools = [generate_random_ints] llm = ChatDatabricks(endpoint="databricks-meta-llama-3-3-70b-instruct") langgraph_agent = create_tool_calling_agent(llm, tools)
步骤 3:使用 ChatAgent 包装您的 LangGraph Agent
这使得您的 Agent 可以使用 PyFunc flavor 轻松记录和部署以用于服务。
from typing import Any, Generator, Optional from langgraph.graph.state import CompiledStateGraph from mlflow.pyfunc import ChatAgent from mlflow.types.agent import ( ChatAgentChunk, ChatAgentMessage, ChatAgentResponse, ChatContext, ) class LangGraphChatAgent(ChatAgent): def __init__(self, agent: CompiledStateGraph): self.agent = agent def predict( self, messages: list[ChatAgentMessage], context: Optional[ChatContext] = None, custom_inputs: Optional[dict[str, Any]] = None, ) -> ChatAgentResponse: request = {"messages": self._convert_messages_to_dict(messages)} messages = [] for event in self.agent.stream(request, stream_mode="updates"): for node_data in event.values(): messages.extend( ChatAgentMessage(**msg) for msg in node_data.get("messages", []) ) return ChatAgentResponse(messages=messages) def predict_stream( self, messages: list[ChatAgentMessage], context: Optional[ChatContext] = None, custom_inputs: Optional[dict[str, Any]] = None, ) -> Generator[ChatAgentChunk, None, None]: request = {"messages": self._convert_messages_to_dict(messages)} for event in self.agent.stream(request, stream_mode="updates"): for node_data in event.values(): yield from ( ChatAgentChunk(**{"delta": msg}) for msg in node_data["messages"] ) chat_agent = LangGraphChatAgent(langgraph_agent)
步骤 4:测试您的模型
使用符合 ChatAgentRequest 模式的字典调用
.predict()和.predict_stream。chat_agent.predict({"messages": [{"role": "user", "content": "What is 10 + 10?"}]}) for event in chat_agent.predict_stream( {"messages": [{"role": "user", "content": "Generate me a few random nums"}]} ): print(event)
此 LangGraph ChatAgent 可以使用在
ChatAgent文档字符串的“记录 ChatAgent”部分中描述的日志记录代码进行记录。
- class mlflow.langchain.chat_agent_langgraph.ChatAgentToolNode(*args: Any, **kwargs: Any)[源]
使 ToolNodes 与
ChatAgentState兼容的帮助类。从 LangGraph 工具的字符串输出来解析attachments和custom_outputs键。
- class mlflow.langchain.output_parsers.ChatAgentOutputParser(*args: Any, name: str | None = None)[源]
OutputParser,它将字符串输出包装成
ChatAgentResponse或ChatAgentChunk的字典表示形式,以便于互操作。