Skip to main content
Glama

Systems MCP

by lethain

システム-MCP

systems-mcp は、システム モデリング用のlethain:systemsライブラリと対話するための MCP サーバーです。

次の 2 つのツールが提供されます。

  • run_systems_model 、システムモデルのsystems仕様を実行します。仕様と、オプションでモデルの実行回数(デフォルトは100)の2つのパラメータを取ります。
  • load_systems_documentation 、ドキュメントとサンプルをコンテキストウィンドウに読み込みます。これは、システムモデルの作成に役立つようにモデルを準備するのに役立ちます。

これは、Claude Desktop または同様のツールと組み合わせてローカルで実行することを目的としています。

使用法

systems-mcpを使用してモデルを実行およびレンダリングする例を次に示します。

systems-mcp を使用するためのプロンプトの例

以下は、システム モデルの実行からの出力を含む、そのプロンプトから生成された成果物です。

systems-mcpの出力を使用するアーティファクトの例

最後に、 load_systems_documentationツールを使用してコンテキストウィンドウを準備し、システム仕様書の生成を支援する例を示します。これは、 lethain:systems/README.mdコンテキストウィンドウに含めるのとほぼ同等ですが、いくつかの追加例も含まれています( ./docs/に含まれるファイルを参照してください)。

コンテキストウィンドウにドキュメントを読み込む際のプロンプト例

その後、以前と同じようにモデルをレンダリングできます。

生成されたモデルをレンダリングするプロンプトの例

ここで最も興味深いのは、私はこれまでsystemsを使用してソーシャル ネットワークをモデル化したことがないのに、それにもかかわらず LLM が仕様を生成するのに驚くほどうまく機能したことです。

インストール

これらの手順では、OS X でのClaude Desktopのインストールについて説明します。他のプラットフォームでも同様に動作するはずです。

  1. Claude Desktopをインストールします。
  2. systems-mcpを便利な場所にクローンします。/Users/will/systems-mcp を想定しています/Users/will/systems-mcp
  3. uvがインストールされていることを確認し、以下の手順に従ってください
  4. Cladue Desktop の「設定」→「開発」を開き、MCP 設定ファイルを作成します。その後、 claude_desktop_config.jsonを更新します。( will 」は実際のユーザー名に置き換えてください。例: whoamiの出力)。
    cd /Users/will/Library/Application Support/Claude vi claude_desktop_config.json
    次に、次のセクションを追加します。
    { "mcpServers": { "systems": { "command": "uv", "args": [ "--directory", "/Users/will/systems-mcp", "run", "main.py" ] } } }
  5. Claude を閉じて再度開きます。
  6. 動作するはずです...
Install Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

local-only server

The server can only run on the client's local machine because it depends on local resources.

モデル仕様を実行し、システム ドキュメントをコンテキスト ウィンドウに読み込む機能を含む、lethain ライブラリを使用してシステム モデルを実行および視覚化できる MCP サーバー。

  1. 使用法
    1. インストール

      Related MCP Servers

      • -
        security
        A
        license
        -
        quality
        An MCP server that provides tools to load and fetch documentation from any llms.txt source, giving users full control over context retrieval for LLMs in IDE agents and applications.
        Last updated -
        566
        Python
        MIT License
        • Apple
      • A
        security
        F
        license
        A
        quality
        An MCP server that allows AI models to execute system commands on local machines or remote hosts via SSH, supporting persistent sessions and environment variables.
        Last updated -
        1
        673
        16
        TypeScript
      • -
        security
        F
        license
        -
        quality
        An MCP server that fetches real-time documentation for popular libraries like Langchain, Llama-Index, MCP, and OpenAI, allowing LLMs to access updated library information beyond their knowledge cut-off dates.
        Last updated -
        2
        Python
      • -
        security
        F
        license
        -
        quality
        A customized MCP server that enables integration between LLM applications and documentation sources, providing AI-assisted access to LangGraph and Model Context Protocol documentation.
        Last updated -
        1
        Python
        • Linux
        • Apple

      View all related MCP servers

      MCP directory API

      We provide all the information about MCP servers via our MCP API.

      curl -X GET 'https://glama.ai/api/mcp/v1/servers/lethain/systems-mcp'

      If you have feedback or need assistance with the MCP directory API, please join our Discord server