Skip to main content
Glama

获取 MCP 服务器

提供 Web 内容获取功能的模型上下文协议 (MLM) 服务器。该服务器使 LLM 能够检索和处理网页内容,并将 HTML 转换为 Markdown 格式,以便于使用。

fetch 工具会截断响应,但您可以使用start_index参数指定从何处开始内容提取。这使得模型可以分块读取网页,直到找到所需的信息。

可用工具

  • fetch - 从互联网获取 URL 并将其内容提取为 markdown。

    • url (字符串,必需):要获取的 URL

    • max_length (整数,可选):返回的最大字符数(默认值:5000)

    • start_index (整数,可选):从此字符索引开始内容(默认值:0)

    • raw (布尔值,可选):获取不带 markdown 转换的原始内容(默认值:false)

提示

  • 拿来

    • 获取 URL 并将其内容提取为 markdown

    • 参数:

      • url (字符串,必需):要获取的 URL

安装

可选:安装 node.js,这将导致 fetch 服务器使用更强大的不同 HTML 简化器。

使用 uv(推荐)

使用uv时无需特殊安装。我们将使用uvx直接运行mcp-server-fetch

使用 PIP

或者,您可以通过 pip 安装mcp-server-fetch

pip install mcp-server-fetch
One-click Deploy
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

Tools

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/ExactDoug/mcp-fetch'

If you have feedback or need assistance with the MCP directory API, please join our Discord server