Skip to main content
Glama

Library Docs MCP Server

Servidor MCP de documentos de la biblioteca

Este es un servidor MCP (Protocolo de contexto de modelo) que le permite buscar y obtener documentación para bibliotecas populares como Langchain, Llama-Index, MCP y OpenAI utilizando la API de Serper.

Características

  • Busque en la documentación de la biblioteca utilizando una consulta en lenguaje natural.

  • Admite Langchain, Llama-Index, MCP y OpenAI (actualice el código para agregar otras bibliotecas).

  • Utiliza la Serper API para realizar búsquedas específicas del sitio.

  • Analiza y devuelve la documentación utilizando BeautifulSoup .

  • Proporciona documentación actualizada , útil para modelos LLM con fechas límite de conocimiento.

¿Por qué utilizar este servidor con LLM?

Muchos modelos LLM, incluidos los utilizados en Claude Desktop y plataformas similares, tienen una fecha límite de conocimiento y podrían no tener acceso a la documentación más reciente de la biblioteca. Este servidor MCP soluciona este problema mediante:

  • Obtención de documentación en tiempo real de fuentes oficiales.

  • Proporcionar información actualizada para el desarrollo y resolución de problemas.

  • Mejorar la precisión y relevancia de las respuestas al trabajar con nuevas actualizaciones de la biblioteca.

Configuración con Claude Desktop

Para utilizar este servidor con Claude Desktop , actualice el archivo claude_desktop_config.json con la siguiente configuración:

{ "mcpServers": { "docs-mcp-server": { "command": "C:\\Users\\Vikram\\.local\\bin\\uv.exe", "args": [ "run", "--with", "mcp[cli]", "mcp", "run", "F:\\My Projects\\AI\\docs-mcp-server\\server.py" ] } } }
Deploy Server
A
security – no known vulnerabilities
F
license - not found
A
quality - confirmed to work

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Un servidor MCP que obtiene documentación en tiempo real para bibliotecas populares como Langchain, Llama-Index, MCP y OpenAI, lo que permite a los LLM acceder a información actualizada de la biblioteca más allá de sus fechas límite de conocimiento.

  1. Características
    1. ¿Por qué utilizar este servidor con LLM?
      1. Configuración con Claude Desktop

        Related MCP Servers

        • -
          security
          A
          license
          -
          quality
          An MCP server that provides tools to load and fetch documentation from any llms.txt source, giving users full control over context retrieval for LLMs in IDE agents and applications.
          Last updated -
          706
          MIT License
          • Apple
        • -
          security
          F
          license
          -
          quality
          A customized MCP server that enables integration between LLM applications and documentation sources, providing AI-assisted access to LangGraph and Model Context Protocol documentation.
          Last updated -
          1
          • Linux
          • Apple
        • A
          security
          F
          license
          A
          quality
          A lightweight MCP server that provides a unified interface to various LLM providers including OpenAI, Anthropic, Google Gemini, Groq, DeepSeek, and Ollama.
          Last updated -
          6
          643
        • -
          security
          A
          license
          -
          quality
          An MCP server that enables AI assistants to access up-to-date documentation for Python libraries like LangChain, LlamaIndex, and OpenAI through dynamic fetching from official sources.
          Last updated -
          1
          MIT License

        View all related MCP servers

        MCP directory API

        We provide all the information about MCP servers via our MCP API.

        curl -X GET 'https://glama.ai/api/mcp/v1/servers/vikramdse/docs-mcp-server'

        If you have feedback or need assistance with the MCP directory API, please join our Discord server