Skip to main content
Glama

WolframAlpha LLM MCP Server

by Garoth

Servidor MCP WolframAlpha LLM

Un servidor de Protocolo de Contexto de Modelo (MCP) que proporciona acceso a la API LLM de WolframAlpha. https://products.wolframalpha.com/llm-api/documentation

Características

  • Consulta la API LLM de WolframAlpha con preguntas en lenguaje natural

  • Responder preguntas matemáticas complicadas

  • Consulta datos sobre ciencia, física, historia, geografía y más.

  • Obtenga respuestas estructuradas y optimizadas para el consumo de LLM

  • Soporte para respuestas simplificadas y respuestas detalladas con secciones

Herramientas disponibles

  • ask_llm : Hazle una pregunta a WolframAlpha y obtén una respuesta estructurada y amigable para llm

  • get_simple_answer : Obtenga una respuesta simplificada

  • validate_key : Validar la clave API de WolframAlpha

Instalación

git clone https://github.com/Garoth/wolframalpha-llm-mcp.git npm install

Configuración

  1. Obtén tu clave API de WolframAlpha en developer.wolframalpha.com

  2. Agréguelo a su archivo de configuración de Cline MCP dentro de la configuración de VSCode (por ejemplo, ~/.config/Code/User/globalStorage/saoudrizwan.claude-dev/settings/cline_mcp_settings.json):

{ "mcpServers": { "wolframalpha": { "command": "node", "args": ["/path/to/wolframalpha-mcp-server/build/index.js"], "env": { "WOLFRAM_LLM_APP_ID": "your-api-key-here" }, "disabled": false, "autoApprove": [ "ask_llm", "get_simple_answer", "validate_key" ] } } }

Desarrollo

Configuración de pruebas

Las pruebas utilizan llamadas API reales para garantizar respuestas precisas. Para ejecutar las pruebas:

  1. Copie el archivo de entorno de ejemplo:

    cp .env.example .env
  2. Edite .env y agregue su clave API de WolframAlpha:

    WOLFRAM_LLM_APP_ID=your-api-key-here

    Nota: El archivo .env se ignora para evitar enviar información confidencial.

  3. Ejecutar las pruebas:

    npm test

Edificio

npm run build

Licencia

Instituto Tecnológico de Massachusetts (MIT)

Deploy Server
A
security – no known vulnerabilities
F
license - not found
A
quality - confirmed to work

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Permite consultar la API LLM de WolframAlpha para preguntas en lenguaje natural, proporcionando respuestas estructuradas y simplificadas optimizadas para el consumo de LLM.

  1. Características
    1. Herramientas disponibles
      1. Instalación
        1. Configuración
          1. Desarrollo
            1. Configuración de pruebas
            2. Edificio
          2. Licencia

            Related MCP Servers

            • A
              security
              A
              license
              A
              quality
              Enables querying documents through a Langflow backend using natural language questions, providing an interface to interact with Langflow document Q\&A flows.
              Last updated -
              1
              14
              MIT License
              • Apple
            • -
              security
              F
              license
              -
              quality
              Enables LLMs to interact with DataForSEO and other SEO APIs through natural language, allowing for keyword research, SERP analysis, backlink analysis, and local SEO tasks.
              Last updated -
              585
              53
            • -
              security
              A
              license
              -
              quality
              Enables LLM-based agents to interact with FHIR healthcare data through natural language prompts, providing full CRUD operations on FHIR resources, document processing, and semantic search capabilities.
              Last updated -
              24
              MIT License
              • Apple
              • Linux
            • -
              security
              F
              license
              -
              quality
              Enables dynamic database querying through natural language questions using LLM-powered parameter extraction and template-based SQL generation. Supports flexible configuration for various domains and databases with automated response formatting.
              Last updated -

            View all related MCP servers

            MCP directory API

            We provide all the information about MCP servers via our MCP API.

            curl -X GET 'https://glama.ai/api/mcp/v1/servers/Garoth/wolframalpha-llm-mcp'

            If you have feedback or need assistance with the MCP directory API, please join our Discord server