Skip to main content
Glama

NexusMind

by SaptaDey

🧠 NexusMind

通过思维图进行智能科学推理

🔍 概述

NexusMind 利用图结构进行复杂的科学推理。它实现了模型上下文协议 (MCP) ,以便与 Claude Desktop 等 AI 应用程序集成。

主要亮点:

  • 使用基于图的推理处理复杂的科学查询
  • 通过多维评估进行动态置信度评分
  • 采用现代 Python 和 FastAPI 构建,以实现高性能
  • Docker化,易于部署
  • 模块化设计,可扩展、可定制

🌟 主要特点

8阶段推理流程

核心推理过程遵循复杂的 8 阶段流程:

  1. 🌱 初始化
    • 根据查询创建根节点
    • 建立初始图形结构
    • 设定信心基线
  2. 🧩 分解
    • 将查询分解为维度
    • 识别关键组件
    • 创建维度节点
  3. 🔬 假设/计划
    • 产生多个假设
    • 创建推理策略
    • 建立伪造标准
  4. 📊 证据整合
    • 收集支持证据
    • 将证据与假设联系起来
    • 更新置信度分数
  5. ✂️ 修剪/合并
    • 删除低价值元素
    • 合并相似节点
    • 优化图形结构
  6. 🔍 子图提取
    • 识别相关部分
    • 专注于高价值路径
    • 创建目标子图
  7. 📝 构图
    • 总结主要发现
    • 创造连贯的见解
    • 生成全面的答案
  8. 🤔 反思
    • 评估推理质量
    • 确定改进领域
    • 最终信心评估

技术能力

  • 🧠 图形知识表示:使用networkx来建模复杂的关系
  • 🔄 动态置信向量
    • 实证支持
    • 理论基础
    • 方法论的严谨性
    • 共识对齐
  • 🔌 MCP 服务器:无缝集成 Claude Desktop
  • ⚡ 高性能 API :现代 FastAPI 实现
  • 🐳 轻松部署:支持 Docker 和 Docker Compose
  • 🧩 可扩展架构:模块化组件,可定制
  • ⚙️ 灵活的配置:Pydantic 和 YAML 配置

🛠️ 技术栈

📂 项目结构

asr-got-reimagined/ ├── config/ │ ├── settings.yaml │ └── claude_mcp_config.json ├── src/asr_got_reimagined/ │ ├── api/ │ │ ├── routes/ │ │ │ └── mcp.py │ │ └── schemas.py │ ├── domain/ │ │ ├── models/ │ │ │ ├── common.py │ │ │ ├── graph_elements.py │ │ │ └── graph_state.py │ │ ├── services/ │ │ │ └── got_processor.py │ │ ├── stages/ │ │ │ ├── base_stage.py │ │ │ ├── stage_1_*.py │ │ │ └── stage_2_*.py... │ │ └── utils/ │ ├── main.py │ └── app_setup.py ├── scripts/ ├── Dockerfile ├── docker-compose.yml └── pyproject.toml

🚀 入门

先决条件

  • Python 3.13+ (Docker 镜像使用 Python 3.13.3-slim-bookworm)
  • Poetry :用于依赖管理
  • DockerDocker Compose :用于容器化部署

安装和设置(本地开发)

  1. 克隆存储库
    git clone https://github.com/SaptaDey/NexusMind.git cd NexusMind
  2. 使用 Poetry 安装依赖项
    poetry install
    这将创建一个虚拟环境并安装pyproject.toml中指定的所有必要包。
  3. 激活虚拟环境
    poetry shell
  4. 配置应用程序
    • 根据需要调整config/settings.yaml中的设置
    • 为敏感信息配置环境变量或.env文件
  5. 运行开发服务器
    python src/asr_got_reimagined/main.py
    或者,为了获得更多控制:
    uvicorn asr_got_reimagined.main:app --reload --host 0.0.0.0 --port 8000
    API 将在http://localhost:8000上可用。

Docker 部署

  1. 构建并运行 Docker 容器
    docker-compose up --build
    对于分离模式:
    docker-compose up --build -d
    Docker 镜像使用 Python 3.13.3-slim-bookworm 作为基础镜像,以提高性能和安全性。
  2. 访问 API :可通过http://localhost:8000访问 API(或按照docker-compose.yml中的配置)。

🔌 API 端点

核心端点

  • MCP 端点: POST /mcp
    • 用于与 Claude Desktop 等 MCP 客户端进行通信
    • 实现用于 AI 交互的模型上下文协议
  • 健康检查GET /health
    • 用于监控和服务发现的基本健康检查

附加端点(计划中)

  • 图形查询POST /api/graph/query
    • ASR-GoT 查询的直接接口
  • 图形状态GET /api/graph/{session_id}
    • 检索推理图的当前状态
  • 分析GET /api/analytics/{session_id}
    • 获取有关推理过程的指标

🧪 测试与质量

开发工具

  • 类型安全
    • 使用mypy.inipyrightconfig.json配置
    • 使用python scripts/add_type_hints.py修复记录器类型问题
  • 代码质量
    • 具有类型注释的完全类型代码库
    • 可用的预提交钩子: poetry run pre-commit install
    • 使用 Ruff 自动格式化
-
security - not tested
F
license - not found
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

MCP 服务器利用图形结构通过 8 阶段处理管道执行复杂的科学推理,使 AI 系统能够通过动态置信度评分处理复杂的科学查询。

  1. 通过思维图进行智能科学推理
    1. 🔍 概述
      1. 🌟 主要特点
        1. 8阶段推理流程
        2. 技术能力
      2. 🛠️ 技术栈
        1. 📂 项目结构
          1. 🚀 入门
            1. 先决条件
            2. 安装和设置(本地开发)
            3. Docker 部署
          2. 🔌 API 端点
            1. 核心端点
            2. 附加端点(计划中)
          3. 🧪 测试与质量
            1. 开发工具

          Related MCP Servers

          • A
            security
            A
            license
            A
            quality
            A sophisticated MCP server that provides a multi-dimensional, adaptive reasoning framework for AI assistants, replacing linear reasoning with a graph-based architecture for more nuanced cognitive processes.
            Last updated -
            1
            11
            26
            TypeScript
            MIT License
            • Apple
            • Linux
          • -
            security
            F
            license
            -
            quality
            An advanced MCP server that implements sophisticated sequential thinking using a coordinated team of specialized AI agents (Planner, Researcher, Analyzer, Critic, Synthesizer) to deeply analyze problems and provide high-quality, structured reasoning.
            Last updated -
            224
            Python
            • Linux
            • Apple
          • -
            security
            F
            license
            -
            quality
            An OpenAI API-based MCP server that provides deep thinking and analysis capabilities, integrating with AI editor models to deliver comprehensive insights and practical solutions.
            Last updated -
          • A
            security
            A
            license
            A
            quality
            An MCP server that provides a "think" tool enabling structured reasoning for AI agents, allowing them to pause and record explicit thoughts during complex tasks or multi-step tool use.
            Last updated -
            1
            54
            Python
            MIT License

          View all related MCP servers

          MCP directory API

          We provide all the information about MCP servers via our MCP API.

          curl -X GET 'https://glama.ai/api/mcp/v1/servers/SaptaDey/NexusMind'

          If you have feedback or need assistance with the MCP directory API, please join our Discord server