Skip to main content
Glama

Unity MCP with Ollama Integration

Ollama 統合による Unity MCP

Ollamaを介してUnityとローカルの大規模言語モデル(LLM)間のシームレスな通信を可能にするUnity MCP(モデルコンテキストプロトコル)パッケージ。このパッケージはjustinpbarnett/unity-mcpを拡張してローカルLLMと連携させ、開発者がクラウドベースのLLMに依存せずにワークフローを自動化し、アセットを操作し、Unityエディターをプログラムで制御できるようにします。

概要

Ollama 統合を備えた Unity MCP は、次の間の双方向通信チャネルを提供します。

  1. Unity(C#経由)
  2. Python MCPサーバー
  3. Ollamaを通じて運営されるローカルLLM

これにより、次のことが可能になります。

  • アセット管理: Unity アセットをプログラムで作成、インポート、操作します
  • シーンコントロール: シーン、オブジェクト、およびそのプロパティを管理します
  • マテリアル編集: マテリアルとそのプロパティを変更します
  • スクリプト統合: Unity スクリプトの表示、作成、更新
  • エディター自動化 エディターの元に戻す、やり直し、再生、ビルドなどの機能を制御します。

すべては独自のローカル LLM によって実行され、インターネット接続や API キーは必要ありません。

サポートされているモデル

この実装は、次の Ollama モデルで動作するように特別に構成されています。

  • deepseek-r1:14b - 強力な推論機能を備えた140億パラメータモデル
  • gemma3:12b - 優れた汎用性を備えたGoogleの120億パラメータモデル

Unity MCP ウィンドウでこれらのモデルを簡単に切り替えることができます。

インストール(資産方式)

Unity のパッケージ マネージャーの互換性の問題により、インストールにはAsset Methodを使用することをお勧めします。

前提条件

  • Unity 2020.3 LTS以降
  • Python 3.10以降
  • システムにOllamaがインストールされている
  • 次の LLM モデルが Ollama に取り込まれました:
    • ollama pull deepseek-r1:14b
    • ollama pull gemma3:12b

ステップ1: エディタースクリプトをダウンロードしてインストールする

  1. このリポジトリをダウンロードまたはクローンします:
    git clone https://github.com/ZundamonnoVRChatkaisetu/unity-mcp-ollama.git
  2. Unity プロジェクトの Assets ディレクトリにフォルダーを作成します。
    Assets/UnityMCPOllama
  3. クローンしたリポジトリからEditorフォルダーを Unity プロジェクトにコピーします。
    # Copy the entire Editor folder [Repository]/Editor → Assets/UnityMCPOllama/Editor
  4. フォルダ構造が正しいことを確認します。
    Assets/ UnityMCPOllama/ Editor/ MCPEditorWindow.cs UnityMCPBridge.cs
  5. Unityでスクリプトをインポートしてコンパイルする

ステップ2: Python環境の設定

  1. Python 環境用のフォルダーを作成します (Unity プロジェクトの外部)。
    mkdir PythonMCP cd PythonMCP
  2. クローンしたリポジトリから Python フォルダをコピーします。
    cp -r [Repository]/Python .
  3. 仮想環境を作成してアクティブ化します。
    # Create a virtual environment python -m venv venv # Activate the virtual environment # On Windows: venv\Scripts\activate # On macOS/Linux: source venv/bin/activate
  4. 依存関係をインストールします:
    cd Python pip install -e .

ステップ3: Ollamaを設定する

  1. Ollamaがシステムにインストールされ、実行されていることを確認してください
  2. サポートされているモデルをプルします。
    ollama pull deepseek-r1:14b ollama pull gemma3:12b
  3. Ollama サーバーを起動します。
    ollama serve

OllamaでUnity MCPを使用する

ステップ1:Unity Bridgeを起動する

  1. Unityプロジェクトを開く
  2. Window > Unity MCPに移動して、MCP ウィンドウを開きます。
  3. **「ブリッジを開始」**ボタンをクリックしてUnityブリッジを開始します

ステップ2: Pythonサーバーを起動する

  1. コマンドプロンプトまたはターミナルを開きます
  2. Python 環境に移動します。
    cd PythonMCP
  3. 仮想環境をアクティブ化します。
    # On Windows: venv\Scripts\activate # On macOS/Linux: source venv/bin/activate
  4. Python ディレクトリに移動してサーバーを起動します。
    cd Python python server.py

ステップ3: Ollamaの設定を構成する

  1. Unity MCPウィンドウで、 Ollama Configurationセクションを見つけます。
  2. 次の設定を確認または更新します。
    • ホスト: localhost (デフォルト)
    • ポート: 11434 (デフォルト)
    • モデル: deepseek-r1:14bまたはgemma3:12bのいずれかを選択してください
    • 温度:必要に応じて調整します(0.0~1.0)
  3. Ollama構成の適用をクリック

ステップ4: チャットインターフェースを使用する

  1. Unity MCPウィンドウの**「チャットインターフェースを表示」**ボタンをクリックします。
  2. メッセージ欄に指示を入力してください
  3. リクエストを処理するには**[送信]**をクリックしてください

プロンプトの例:

  • 「位置 (0, 1, 0) に赤い立方体を作成します」
  • 「シーンに球体を追加し、青いマテリアルを適用する」
  • 「現在のシーン内のすべてのオブジェクトを一覧表示する」
  • 「簡単な動作スクリプトを書いてキューブに添付する」

接続ステータスインジケーター

Unity MCP ウィンドウには、各コンポーネントのステータス情報が表示されます。

  • Pythonサーバーステータス: Pythonサーバーが実行中かどうかを示します
    • 緑: 接続済み
    • 黄色: 接続されていますが、問題があります
    • 赤: 接続されていません
  • Unityブリッジステータス: Unityソケットサーバーが実行中かどうかを表示します
    • 実行中: Unity は接続を待機しています
    • 停止: Unity ソケット サーバーがアクティブではありません
  • Ollamaステータス: Ollamaへの接続ステータスを表示します
    • 接続済み: Ollama サーバーに正常に接続されました
    • 接続されていません: Ollama に接続できません

トラブルシューティング

よくある問題

  1. Python サーバーの「未接続」ステータス
    • Python サーバーが実行中であることを確認します ( python server.py )
    • Pythonコンソールでエラーを確認する
    • Unity Bridgeが動作していることを確認する
  2. Unity MCP メニューが見つかりません
    • エディタースクリプトがプロジェクトに正しくインポートされていることを確認してください
    • Unityコンソールでエラーがないか確認する
    • 必要に応じてUnityを再起動します
  3. Ollama 接続の問題
    • ollama serveでOllamaが動作していることを確認する
    • モデルが適切に引き出されているか確認する
    • ファイアウォールがポート11434をブロックしていないことを確認する
  4. MCPコマンド実行失敗
    • 詳細なエラーメッセージについてはPythonコンソールを確認してください
    • Unity Bridgeが動作していることを確認する
    • プロンプトが明確かつ具体的であることを確認してください

Python環境の明示的なセットアップ手順

Python 環境の設定中に問題が発生した場合:

  1. Python 3.10以降をインストールする
  2. ollama.aiからOllamaをインストールする
  3. Python 環境専用のディレクトリを作成します。
    mkdir C:\PythonMCP cd C:\PythonMCP
  4. このリポジトリをクローンまたはダウンロードし、Python フォルダーをコピーします。
    git clone https://github.com/ZundamonnoVRChatkaisetu/unity-mcp-ollama.git copy unity-mcp-ollama\Python .
  5. 仮想環境を作成します。
    python -m venv venv
  6. 仮想環境をアクティブ化します。
    venv\Scripts\activate
  7. 依存関係をインストールします:
    cd Python pip install -e .
  8. サーバーを実行します。
    python server.py

パフォーマンスに関する考慮事項

ローカル LLM のパフォーマンスはハードウェアによって異なります。

  • deepseek-r1:14bの場合:推奨最小12GBのVRAM
  • gemma3:12bの場合:推奨最小10GBのVRAM
  • CPUのみの操作は可能だが、速度が大幅に低下する

貢献

貢献を歓迎します!お気軽にプルリクエストを送信したり、問題を報告してください。

ライセンス

このプロジェクトは MIT ライセンスに基づいてライセンスされています。

謝辞

Related MCP Servers

  • -
    security
    A
    license
    -
    quality
    Enables seamless integration between Ollama's local LLM models and MCP-compatible applications, supporting model management and chat interactions.
    Last updated -
    65
    94
    TypeScript
    AGPL 3.0
  • -
    security
    A
    license
    -
    quality
    A bridge enabling seamless communication between Unity and Large Language Models via the Model Context Protocol, allowing developers to automate workflows, manipulate assets, and control the Unity Editor programmatically.
    Last updated -
    2,674
    MIT License
    • Linux
    • Apple
  • -
    security
    F
    license
    -
    quality
    A server that enables seamless integration between local Ollama LLM instances and MCP-compatible applications, providing advanced task decomposition, evaluation, and workflow management capabilities.
    Last updated -
    6
    Python
    • Apple
  • -
    security
    A
    license
    -
    quality
    A Model Context Protocol server that provides standardized interfaces for interacting with Ollama API, offering JSON responses, error handling, and intelligent guidance for LLM-based API calls.
    Last updated -
    Python
    MIT License
    • Linux
    • Apple

View all related MCP servers

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/ZundamonnoVRChatkaisetu/unity-mcp-ollama'

If you have feedback or need assistance with the MCP directory API, please join our Discord server