Servidor MCP de MLflow: Interfaz de lenguaje natural para MLflow
Este proyecto proporciona una interfaz de lenguaje natural para MLflow mediante el Protocolo de Contexto de Modelo (MCP). Permite consultar el servidor de seguimiento de MLflow en inglés sencillo, lo que facilita la gestión y la exploración de experimentos y modelos de aprendizaje automático.
Descripción general
El agente MCP de MLflow consta de dos componentes principales:
Servidor MCP de MLflow (
mlflow_server.py
): se conecta a su servidor de seguimiento de MLflow y expone la funcionalidad de MLflow a través del Protocolo de contexto de modelo (MCP).Cliente MLflow MCP (
mlflow_client.py
): proporciona una interfaz de lenguaje natural para interactuar con el servidor MLflow MCP mediante un asistente de inteligencia artificial conversacional.
Características
Consultas en lenguaje natural : haga preguntas sobre su servidor de seguimiento MLflow en un lenguaje sencillo
Exploración del Registro de Modelos : Obtenga información sobre sus modelos registrados
Seguimiento de experimentos : enumere y explore sus experimentos y ejecuciones
Información del sistema : obtenga el estado y los metadatos sobre su entorno MLflow
Prerrequisitos
Python 3.8+
Servidor MLflow en ejecución (predeterminado:
http://localhost:8080
)Clave API de OpenAI para el LLM
Instalación
Clonar este repositorio:
git clone https://github.com/iRahulPandey/mlflowMCPServer.git cd mlflowMCPServerCrear un entorno virtual:
python -m venv venv source venv/bin/activate # On Windows: venv\Scripts\activateInstalar los paquetes necesarios:
pip install mcp[cli] langchain-mcp-adapters langchain-openai langgraph mlflowEstablezca su clave API de OpenAI:
export OPENAI_API_KEY=your_key_here(Opcional) Configure la URI del servidor de seguimiento de MLflow:
export MLFLOW_TRACKING_URI=http://localhost:8080
Uso
Iniciando el servidor MCP
Primero, inicie el servidor MLflow MCP:
El servidor se conecta a su servidor de seguimiento MLflow y expone la funcionalidad de MLflow a través de MCP.
Realizar consultas
Una vez que el servidor esté en ejecución, puedes realizar consultas en lenguaje natural utilizando el cliente:
Consultas de ejemplo:
"Muéstrame todos los modelos registrados en MLflow"
"Enumerar todos mis experimentos"
Obtener detalles del modelo denominado 'iris-classifier'
"¿Cuál es el estado de mi servidor MLflow?"
Configuración
Puede personalizar el comportamiento utilizando variables de entorno:
MLFLOW_TRACKING_URI
: URI de su servidor de seguimiento MLflow (predeterminado:http://localhost:8080
)OPENAI_API_KEY
: Su clave API de OpenAIMODEL_NAME
: El modelo OpenAI a utilizar (predeterminado:gpt-3.5-turbo-0125
)MLFLOW_SERVER_SCRIPT
: Ruta al script del servidor MCP de MLflow (predeterminado:mlflow_server.py
)LOG_LEVEL
: Nivel de registro (predeterminado:INFO
)
Servidor MCP de MLflow ( mlflow_server.py
)
El servidor se conecta a su servidor de seguimiento MLflow y expone las siguientes herramientas a través de MCP:
list_models
: enumera todos los modelos registrados en el registro de modelos de MLflowlist_experiments
: enumera todos los experimentos en el servidor de seguimiento de MLflowget_model_details
: Obtiene información detallada sobre un modelo registrado específicoget_system_info
: Obtiene información sobre el servidor y el sistema de seguimiento de MLflow
Limitaciones
Actualmente solo admite un subconjunto de la funcionalidad de MLflow
El cliente requiere acceso a Internet para utilizar los modelos OpenAI
El manejo de errores puede ser limitado para operaciones complejas de MLflow
Mejoras futuras
Añadir compatibilidad con predicciones de modelos de MLflow
Mejorar la comprensión del lenguaje natural para consultas más complejas
Añadir capacidades de visualización para métricas y parámetros
Soporte para más operaciones de MLflow como administración de ejecuciones y manejo de artefactos
Expresiones de gratitud
Protocolo de contexto de modelo (MCP) : para la especificación del protocolo
LangChain : para el marco del agente
MLflow : Para la funcionalidad de seguimiento y registro de modelos
This server cannot be installed
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Una interfaz de lenguaje natural para MLflow que permite a los usuarios consultar y administrar sus experimentos y modelos de aprendizaje automático utilizando inglés simple a través del Protocolo de Contexto de Modelo.
Related MCP Servers
- -securityAlicense-qualityA Model Context Protocol server that enables AI assistants to interact with n8n workflows through natural language, supporting actions like listing, creating, updating, executing and monitoring workflows.Last updated -1491,337MIT License
- AsecurityAlicenseAqualityEnables querying documents through a Langflow backend using natural language questions, providing an interface to interact with Langflow document Q\&A flows.Last updated -114MIT License
- -securityAlicense-qualityA Model Context Protocol Server that enables LLMs to interact with and execute REST API calls through natural language prompts, supporting GET/PUT/POST/PATCH operations on configured APIs.Last updated -6Apache 2.0
- -securityFlicense-qualityA simple application demonstrating Model Context Protocol (MCP) integration with FastAPI and Streamlit, allowing users to interact with LLMs through a clean interface.Last updated -3