跳到主要内容

MLflow AI 网关

警告

MLflow AI 网关不支持 Windows。

MLflow AI 网关为在组织内部署和管理多个 LLM 提供商提供了一个统一的界面。它通过单个安全端点简化了与 OpenAI、Anthropic 等服务的交互。

在需要安全管理多个 LLM 提供商,同时保持操作灵活性和开发人员生产力的生产环境中,该网关服务器表现出色。

统一界面

通过单个端点访问多个 LLM 提供商,无需单独与每个提供商集成。

集中式安全

在一个安全的位置存储 API 密钥,并记录请求/响应以进行审计和合规性检查。

提供商抽象

无需更改应用程序代码,即可在 OpenAI、Anthropic、Azure OpenAI 和其他提供商之间进行切换。

零停机更新

动态添加、删除或修改端点,无需重新启动服务器或中断正在运行的应用程序。

成本优化

监控跨提供商的使用情况,并通过将请求路由到最高效的模型来优化成本。

团队协作

跨开发团队共享端点配置和标准化访问模式。

开始使用

选择您快速上手 MLflow AI 网关的路径

快速入门

在 5 分钟内让您的 AI 网关与 OpenAI 运行起来

安装带有网关依赖项的 MLflow

pip install 'mlflow[gateway]'

支持的提供商

MLflow AI 网关支持全面的 LLM 提供商

提供商聊天完成Embeddings备注
OpenAIGPT-3.5、GPT-4、文本嵌入模型
Azure OpenAI带 Azure 集成的企业级 OpenAI
Anthropic通过 Anthropic API 的 Claude 模型
CohereCommand 和嵌入模型
AWS BedrockClaude、Titan 和其他 Bedrock 模型
PaLMGoogle 的 PaLM 模型
MosaicMLMPT 模型和自定义部署
MLflow 模型您自己部署的 MLflow 模型

核心概念

理解这些关键概念将帮助您有效使用 AI 网关

端点

端点是命名配置,用于定义如何从特定提供商访问特定模型。每个端点都指定模型、提供商设置和访问参数。

提供商

提供商是实际提供模型的底层 LLM 服务(OpenAI、Anthropic 等)。网关抽象了提供商特定的细节。

路由

路由定义了访问端点的 URL 结构。网关会根据您的端点配置自动创建路由。

动态更新

网关支持配置的热重载,允许您在不重新启动服务器的情况下添加、修改或删除端点。

后续步骤

准备深入了解?探索这些资源