Servidor de acoplamiento MCP
Un servidor MCP que proporciona capacidades de procesamiento de documentos utilizando la biblioteca Docling.
Instalación
Puedes instalar el paquete usando pip:
Related MCP server: MarkItDown MCP Server
Uso
Inicie el servidor utilizando stdio (predeterminado) o el transporte SSE:
Si está usando uv, puede ejecutar el servidor directamente sin instalar:
Herramientas disponibles
El servidor expone las siguientes herramientas:
convert_document : Convierte un documento desde una URL o ruta local al formato Markdown
source: URL o ruta del archivo local del documento (obligatorio)enable_ocr: si se debe habilitar el OCR para documentos escaneados (opcional, valor predeterminado: falso)ocr_language: lista de códigos de idioma para OCR, p. ej., ["en", "fr"] (opcional)
convert_document_with_images : Convertir un documento y extraer imágenes incrustadas
source: URL o ruta del archivo local del documento (obligatorio)enable_ocr: si se debe habilitar el OCR para documentos escaneados (opcional, valor predeterminado: falso)ocr_language: Lista de códigos de idioma para OCR (opcional)
extract_tables : Extrae tablas de un documento como datos estructurados
source: URL o ruta del archivo local del documento (obligatorio)
convert_batch : Procesar múltiples documentos en modo por lotes
sources: Lista de URL o rutas de archivos a documentos (obligatorio)enable_ocr: si se debe habilitar el OCR para documentos escaneados (opcional, valor predeterminado: falso)ocr_language: Lista de códigos de idioma para OCR (opcional)
qna_from_document : Crea un documento de preguntas y respuestas desde una URL o ruta local al formato YAML
source: URL o ruta del archivo local del documento (obligatorio)no_of_qnas: Número de preguntas y respuestas esperadas (opcional, predeterminado: 5)Nota : Esta herramienta requiere que las credenciales de IBM Watson X se configuren como variables de entorno:
WATSONX_PROJECT_ID: Su ID de proyecto Watson XWATSONX_APIKEY: Su clave de API de IBM CloudWATSONX_URL: la URL de la API Watson X (predeterminada: https://us-south.ml.cloud.ibm.com )
get_system_info : Obtener información sobre la configuración del sistema y el estado de la aceleración
Ejemplo con Llama Stack
https://github.com/user-attachments/assets/8ad34e50-cbf7-4ec8-aedd-71c42a5de0a1
Puede usar este servidor con Llama Stack para proporcionar capacidades de procesamiento de documentos a sus aplicaciones LLM. Asegúrese de tener un servidor Llama Stack en ejecución y luego configure su INFERENCE_MODEL
Almacenamiento en caché
El servidor almacena en caché los documentos procesados en ~/.cache/mcp-docling/ para mejorar el rendimiento de las solicitudes repetidas.