Skip to main content
Glama

Library Docs MCP Server

Servidor MCP de documentos de la biblioteca

Este es un servidor MCP (Protocolo de contexto de modelo) que le permite buscar y obtener documentación para bibliotecas populares como Langchain, Llama-Index, MCP y OpenAI utilizando la API de Serper.

Características

  • Busque en la documentación de la biblioteca utilizando una consulta en lenguaje natural.
  • Admite Langchain, Llama-Index, MCP y OpenAI (actualice el código para agregar otras bibliotecas).
  • Utiliza la Serper API para realizar búsquedas específicas del sitio.
  • Analiza y devuelve la documentación utilizando BeautifulSoup .
  • Proporciona documentación actualizada , útil para modelos LLM con fechas límite de conocimiento.

¿Por qué utilizar este servidor con LLM?

Muchos modelos LLM, incluidos los utilizados en Claude Desktop y plataformas similares, tienen una fecha límite de conocimiento y podrían no tener acceso a la documentación más reciente de la biblioteca. Este servidor MCP soluciona este problema mediante:

  • Obtención de documentación en tiempo real de fuentes oficiales.
  • Proporcionar información actualizada para el desarrollo y resolución de problemas.
  • Mejorar la precisión y relevancia de las respuestas al trabajar con nuevas actualizaciones de la biblioteca.

Configuración con Claude Desktop

Para utilizar este servidor con Claude Desktop , actualice el archivo claude_desktop_config.json con la siguiente configuración:

{ "mcpServers": { "docs-mcp-server": { "command": "C:\\Users\\Vikram\\.local\\bin\\uv.exe", "args": [ "run", "--with", "mcp[cli]", "mcp", "run", "F:\\My Projects\\AI\\docs-mcp-server\\server.py" ] } } }
Install Server
A
security – no known vulnerabilities
F
license - not found
A
quality - confirmed to work

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Un servidor MCP que obtiene documentación en tiempo real para bibliotecas populares como Langchain, Llama-Index, MCP y OpenAI, lo que permite a los LLM acceder a información actualizada de la biblioteca más allá de sus fechas límite de conocimiento.

  1. Características
    1. ¿Por qué utilizar este servidor con LLM?
      1. Configuración con Claude Desktop

        Related MCP Servers

        • -
          security
          F
          license
          -
          quality
          A MCP server that exposes OpenAPI schema information to LLMs like Claude. This server allows an LLM to explore and understand large OpenAPI schemas through a set of specialized tools, without needing to load the whole schema into the context
          Last updated -
          47
          37
          JavaScript
          • Apple
          • Linux
        • -
          security
          A
          license
          -
          quality
          An MCP server that provides tools to load and fetch documentation from any llms.txt source, giving users full control over context retrieval for LLMs in IDE agents and applications.
          Last updated -
          566
          Python
          MIT License
          • Apple
        • -
          security
          F
          license
          -
          quality
          A customized MCP server that enables integration between LLM applications and documentation sources, providing AI-assisted access to LangGraph and Model Context Protocol documentation.
          Last updated -
          1
          Python
          • Linux
          • Apple
        • A
          security
          F
          license
          A
          quality
          A lightweight MCP server that provides a unified interface to various LLM providers including OpenAI, Anthropic, Google Gemini, Groq, DeepSeek, and Ollama.
          Last updated -
          6
          565
          Python

        View all related MCP servers

        MCP directory API

        We provide all the information about MCP servers via our MCP API.

        curl -X GET 'https://glama.ai/api/mcp/v1/servers/vikramdse/docs-mcp-server'

        If you have feedback or need assistance with the MCP directory API, please join our Discord server