Skip to main content
Glama

OPS MCP Server

by Heht571

ops-mcp-服务器

ops-mcp-server :一个由人工智能驱动的 IT 运营平台,融合了 LLM 和 MCP 架构,实现智能监控、异常检测和自然的人机基础设施交互,具有企业级安全性和可扩展性。


📖 目录


🚀 项目概述

ops-mcp-server是面向 AI 时代的 IT 运维管理解决方案。它通过无缝集成模型上下文协议 (MCP) 和大型语言模型 (LLM),实现智能化的 IT 运维。借助 LLM 的强大功能和 MCP 的分布式架构,它将传统的 IT 运维转变为 AI 驱动的体验,实现服务器的自动化监控、智能异常检测和上下文感知的故障排除。该系统充当人工运维人员与复杂 IT 基础架构之间的桥梁,为从日常维护到复杂问题诊断等各种任务提供自然语言交互,同时保持企业级的安全性和可扩展性。


🌟 主要特点

🖥️ 服务器监控

  • 实时CPU、内存、磁盘检查。
  • 系统负载和进程监控。
  • 服务和网络接口检查。
  • 日志分析和配置备份。
  • 安全漏洞扫描(SSH 登录、防火墙状态)。
  • 详细的操作系统信息检索。

📦容器管理(Docker)

  • 容器、图像和卷管理。
  • 容器资源使用情况监控。
  • 日志检索和健康检查。

🌐 网络设备管理

  • 多供应商支持(思科、华为、H3C)。
  • 交换机端口、VLAN 和路由器路由检查。
  • ACL安全配置分析。
  • 光模块和设备性能监控。

➕ 附加功能

  • 可扩展的插件架构。
  • 跨多个设备的批量操作。
  • 工具列表和描述性命令。

🎬 演示视频

📌 项目演示

关于 Cherry Studio

演示动画

📌 交互式客户端演示

在终端上

客户端演示动画


⚙️ 安装

确保已安装Python 3.10 及以上版本。本项目使用uv进行依赖项和环境管理。

1.安装UV

curl -LsSf https://astral.sh/uv/install.sh | sh

2. 设置虚拟环境

uv venv .venv # Activate the environment source .venv/bin/activate # Linux/macOS .\.venv\Scripts\activate # Windows

3.安装依赖项

uv pip install -r requirements.txt

依赖关系通过pyproject.toml进行管理。


🚧 部署

📡 SSE 远程部署 (UV)

cd server_monitor_sse # Install dependencies pip install -r requirements.txt # Start service cd .. uv run server_monitor_sse --transport sse --port 8000

🐳 SSE 远程部署(Docker Compose)

确保已安装 Docker 和 Docker Compose。

cd server_monitor_sse docker compose up -d # Check status docker compose ps # Logs monitoring docker compose logs -f

🛠️ 本地 MCP 服务器配置 (Stdio)

将此配置添加到您的 MCP 设置中:

{ "ops-mcp-server": { "command": "uv", "args": [ "--directory", "YOUR_PROJECT_PATH_HERE", "run", "server_monitor.py" ], "env": {}, "disabled": true, "autoApprove": ["list_available_tools"] }, "network_tools": { "command": "uv", "args": [ "--directory", "YOUR_PROJECT_PATH_HERE", "run", "network_tools.py" ], "env": {}, "disabled": false, "autoApprove": [] }, }

注意:将YOUR_PROJECT_PATH_HERE替换为您的项目的实际路径。


💬 交互式客户端使用

交互式客户端 ( client.py ) 允许您使用自然语言与 MCP 服务进行交互。

1.安装客户端依赖项

uv pip install openai rich

2.配置客户端

client.py中编辑这些配置:

# Initialize OpenAI client self.client = AsyncOpenAI( base_url="https://your-api-endpoint", api_key="YOUR_API_KEY" ) # Set model self.model = "your-preferred-model"

3.运行客户端

uv run client.py [path/to/server.py]

例子:

uv run client.py ./server_monitor.py

客户端命令

  • help ——显示帮助。
  • quit ——退出客户端。
  • clear - 清除对话历史记录。
  • model <name> - 切换模型。

📄 许可证

该项目已获得MIT 许可


📌 注释

  • 确保远程 SSH 访问配置正确。
  • 根据实际部署情况调整工具参数。
  • 该项目正在积极开发中;欢迎反馈和贡献。

Related MCP Servers

  • -
    security
    A
    license
    -
    quality
    MCP Server for networl monitoring software ntopng.
    Last updated -
    MIT License
    • Apple
  • A
    security
    A
    license
    A
    quality
    A lightweight server that provides real-time system information including CPU, memory, disk, and GPU statistics for monitoring and diagnostic purposes.
    Last updated -
    1
    MIT License
  • A
    security
    F
    license
    A
    quality
    A FastMCP-based tool for monitoring server statistics that retrieves CPU, memory, and uptime information from both local and remote servers via SSH.
    Last updated -
    2
    9
  • -
    security
    F
    license
    -
    quality
    A natural language-based server analysis and monitoring system that automatically processes user queries about server status and provides detailed responses with visualizations.
    Last updated -

View all related MCP servers

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/Heht571/ops-mcp-server'

If you have feedback or need assistance with the MCP directory API, please join our Discord server