Skip to main content
Glama

M/M/1 Queue Simulation Server

by kiyoung8
deploy_mmc.md2.54 kB
# M/M/c MCP 서버 배포 가이드 ## 문제 LLM이 "M/M/c 지원 안됨"이라고 생각하는 이유: - 현재 배포된 MCP는 `server.py` (M/M/1만 지원) - 새로 만든 `server_mmc.py`는 배포 안됨 ## 해결 방법 ### Option 1: 기존 서버 업데이트 (권장) ```bash # 1. server.py를 server_mmc.py 내용으로 교체 cp src/mcp_server_mm1/server_mmc.py src/mcp_server_mm1/server.py # 2. 버전 업데이트 # pyproject.toml에서 version = "0.2.0" # 3. 재배포 python -m build python -m twine upload dist/* # 4. Smithery 업데이트 smithery publish ``` ### Option 2: 새 패키지로 배포 ```bash # 1. 새 패키지 이름으로 배포 mv pyproject_mmc.toml pyproject.toml # 2. 빌드 및 배포 python -m build python -m twine upload dist/mcp-server-mmc-0.2.0* # 3. Claude Desktop 설정 변경 ``` ### Option 3: 로컬 테스트 (임시) ```json // Claude Desktop config { "mcpServers": { "mm-simulation": { "command": "python", "args": ["C:/Users/cky/repo/Simulation_by_SimPy/src/mcp_server_mm1/server_mmc.py"] } } } ``` ## LLM이 인식하게 하려면 ### 1. MCP 서버 시작 시 도구 목록 확인 ```python # server_mmc.py의 main 함수 추가 def main(): print("=== M/M/c MCP Server Started ===") print("Available tools:") print("- run_mmc_simulation (M/M/1 to M/M/c)") print("- compare_mm1_vs_mmc") print("- analyze_cashier_problem") mcp.run() ``` ### 2. 프롬프트에 명시 ``` "Use MCP tools to compare M/M/3 vs M/M/1×3. Available MCP tools: - run_mmc_simulation(arrival_rate, service_rate, num_servers) - compare_mm1_vs_mmc(arrival_rate, service_rate, num_servers)" ``` ### 3. 리소스 업데이트 ```python @mcp.resource("mmc://capabilities") def get_capabilities(): return { "supports": ["M/M/1", "M/M/2", "M/M/3", "...", "M/M/c"], "tools": [ "run_mmc_simulation", "compare_mm1_vs_mmc", "analyze_cashier_problem" ] } ``` ## 검증 방법 ### 1. MCP Inspector로 확인 ```bash mcp dev src/mcp_server_mm1/server_mmc.py # 브라우저에서 도구 목록 확인 ``` ### 2. 직접 테스트 ```python # LLM에게 질문 "List all available MCP tools" # run_mmc_simulation이 보여야 함 ``` ## 현재 상태 요약 ❌ **배포된 버전**: M/M/1만 지원 ✅ **로컬 코드**: M/M/c 지원 완료 🔧 **필요한 작업**: 배포 또는 설정 업데이트 LLM이 M/M/c를 직접 구현하려는 이유는 **배포된 MCP가 구버전**이기 때문!

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/kiyoung8/Simulation_by_SimPy'

If you have feedback or need assistance with the MCP directory API, please join our Discord server