Skip to main content
Glama

在 VS Code 中使用 NPX 安装

工作流 MCP

用于与 Workflowy 交互的模型上下文协议 (MCP) 服务器。该服务器为 Workflowy 提供与 MCP 兼容的接口,允许 AI 助手以编程方式与您的 Workflowy 列表进行交互。

什么是 MCP?

模型上下文协议 (MCP) 是 AI 模型与外部工具和 API 交互的标准化方式。此服务器实现了 MCP,允许 AI 助手(例如 ChatGPT)通过一组定义的工具读取和操作您的 Workflowy 列表。

Related MCP server: etf-flow-mcp

特征

  • Workflowy 集成:使用用户名/密码验证连接到您的 Workflowy 帐户

  • MCP 兼容性:完全支持模型上下文协议

  • 工具操作:在 Workflowy 中搜索、创建、更新和将节点标记为完成/不完成

示例用法:

就我个人而言,我使用 Workflowy 作为我的项目管理工具。让我的经纪人访问我的笔记和代码库,以下是一些有用的提示:

  • “在 workflowy 中显示我关于项目 XYZ 的所有笔记”

  • “审查代码库,将所有已完成的注释标记为已完成”

  • “考虑到我在这个项目的工作流程上的里程碑,建议我的下一个任务应该是什么”

安装

先决条件

  • Node.js v18 或更高版本

  • Workflowy 帐户

快速安装

NPM 版本NPM 下载

# Install the package globally npm install -g mcp-workflowy # Or use npx to run it directly npx mcp-workflowy server start

配置

在您的项目目录中创建一个包含以下内容的.env文件:

WORKFLOWY_USERNAME=your_username_here WORKFLOWY_PASSWORD=your_password_here

或者,您可以在运行服务器时将这些凭据作为环境变量提供。

用法

启动服务器

# If installed globally mcp-workflowy server start # Using npx npx mcp-workflowy server start

可用工具

此 MCP 服务器提供以下工具与您的 Workflowy 进行交互:

  1. list_nodes - 从 Workflowy 获取节点列表(根节点或指定节点的子节点)

  2. search_nodes - 通过查询文本搜索节点

  3. create_node - 在 Workflowy 中创建一个新节点

  4. update_node - 修改现有节点的文本或描述

  5. toggle_complete - 将节点标记为完成或不完成

与人工智能助手集成

要将此 MCP 服务器与 AI 助手(如 ChatGPT)一起使用:

  1. 按照上述说明启动 MCP 服务器

  2. 将您的 AI 助手连接到 MCP 服务器(请参阅您的 AI 助手的文档)

  3. AI 助手现在可以读取和操作你的 Workflowy 列表

一键

在 VS Code 中使用 NPX 安装

贡献

欢迎贡献代码!欢迎提交 Pull 请求。

执照

该项目根据 MIT 许可证获得许可 - 有关详细信息,请参阅LICENSE文件。

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/danield137/mcp-workflowy'

If you have feedback or need assistance with the MCP directory API, please join our Discord server