-
securityF
license-
qualityAn open standard server implementation that enables AI assistants to directly access APIs and services through Model Context Protocol, built using Cloudflare Workers for scalability.
Last updated -
TypeScript
Cloudflare Workers と Hono フレームワークで構築された最新の AI サービス プロキシで、Anthropic Claude や OpenAI などの複数の AI プロバイダーをサポートします。
.env
の環境変数を設定します開発サーバーを起動します。
サーバーはホット リロードが有効になっている開発モードで起動します。
Cloudflare Workers にデプロイする:
GET /health
GET /api/provider
POST /api/mcp
マサチューセッツ工科大学
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Cloudflare Workers を使用してグローバルに展開された、統合 API を介して複数の AI プロバイダー (Anthropic Claude、OpenAI) とのやり取りを可能にする最新の AI サービス プロキシです。
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/quang-pham-dev/my-mcp-server'
If you have feedback or need assistance with the MCP directory API, please join our Discord server