Skip to main content
Glama

Agent MCP BrightData

by elonmsk

Agent MCP BrightData avec Exploration Itérative

Un agent intelligent utilisant le protocole MCP (Model Context Protocol) pour explorer et analyser des sites web de manière itérative et structurée.

🚀 Fonctionnalités

  • Exploration itérative : Méthodologie en 4 phases pour une recherche complète
  • Protection anti-doublons : Évite les appels redondants sur les mêmes URLs
  • Outils MCP : Utilise scrape_as_markdown, scrape_as_html et search_engine
  • Gestion intelligente du contexte : Optimise l'utilisation de la mémoire
  • Interface conversationnelle : Interaction naturelle avec l'agent

📋 Prérequis

  • Python 3.8+
  • Compte BrightData avec API token
  • Clé API OpenAI

🛠️ Installation

  1. Cloner le repository
git clone https://github.com/elonmsk/MCP.git cd MCP
  1. Installer les dépendances
pip install -r requirements.txt
  1. Configurer les variables d'environnement
cp sample.env .env # Éditer .env avec vos clés API

⚙️ Configuration

Créez un fichier .env avec vos clés API :

# BrightData API Configuration API_TOKEN=your_brightdata_api_token_here BROWSER_AUTH=your_browser_auth_here WEB_UNLOCKER_ZONE=your_web_unlocker_zone_here # OpenAI API Configuration OPENAI_API_KEY=your_openai_api_key_here

🎯 Utilisation

Démarrage de l'agent (mode console)

python main.py

Démarrage de l'API web

python app.py

L'API sera disponible sur http://localhost:8000

Documentation de l'API

Une fois l'API démarrée, visitez :

  • Documentation interactive : http://localhost:8000/docs
  • Documentation alternative : http://localhost:8000/redoc

Commandes disponibles

  • Exploration complète : explore [URL] [sujet]
    explore https://example.com aides logement
  • Réinitialisation : reset, clear, ou new
    reset
  • Quitter : exit ou quit
    exit

🔍 Méthodologie d'Exploration

L'agent suit une méthodologie structurée en 4 phases :

Phase 1 : Navigation interne structurée

  • Analyse de la page d'accueil
  • Identification de la structure de navigation
  • Création d'une carte mentale du site

Phase 2 : Exploration approfondie

  • Suivi des chemins de navigation identifiés
  • Exploration en profondeur des sections pertinentes
  • Collecte d'informations détaillées

Phase 3 : Validation externe

  • Recherches externes spécifiques
  • Vérification de la cohérence des données
  • Identification d'informations complémentaires

Phase 4 : Recherche externe complémentaire

  • Validation finale par moteur de recherche
  • Complémentarité et validation finale

🛡️ Protection Anti-Doublons

  • Limite d'appels : 15 appels maximum par session
  • Vérification d'URLs : Évite les appels sur les mêmes pages
  • Instructions système : L'agent est programmé pour éviter les doublons
  • Compteur en temps réel : Affichage du nombre d'appels restants

📊 Outils Utilisés

  • scrape_as_markdown : Extraction du contenu des pages web
  • scrape_as_html : Obtention du HTML brut si nécessaire
  • search_engine : Recherches externes via Google

⚠️ Note : L'outil extract n'est pas utilisé car il cause des erreurs.

🔧 Architecture

main.py (mode console) ├── WebExplorer (classe principale) │ ├── scrape_page() - Scraping de pages │ ├── search_site() - Recherches externes │ └── explore_site_iteratively() - Exploration complète ├── ConversationManager - Gestion du contexte └── create_duplicate_protected_tools() - Protection anti-doublons app.py (API web) ├── FastAPI application ├── Routes API (/explore, /search, /scrape, /chat) ├── WebExplorer (version simplifiée) └── Session MCP globale

📝 Exemple d'Utilisation

🤖 Agent BrightData MCP avec exploration itérative activé 💡 Utilisez 'explore [URL] [sujet]' pour une exploration complète 🔄 Utilisez 'reset', 'clear' ou 'new' pour réinitialiser la session 📊 Protection anti-doublons via instructions système You: explore https://actionlogement.fr aides logement réfugiés 🔍 DÉBUT DE L'EXPLORATION ITÉRATIVE 🌐 Site cible: https://actionlogement.fr 📋 Sujet de recherche: aides logement réfugiés 📊 Limite d'appels: 10 🗺️ PHASE 1: NAVIGATION INTERNE STRUCTURÉE ✅ Page d'accueil analysée (15 liens trouvés) ...

🤝 Contribution

Les contributions sont les bienvenues ! N'hésitez pas à :

  1. Fork le projet
  2. Créer une branche pour votre fonctionnalité
  3. Commiter vos changements
  4. Pousser vers la branche
  5. Ouvrir une Pull Request

📄 Licence

Ce projet est sous licence MIT. Voir le fichier LICENSE pour plus de détails.

🆘 Support

Pour toute question ou problème :

  1. Vérifiez que vos clés API sont correctement configurées
  2. Assurez-vous que toutes les dépendances sont installées
  3. Consultez les logs pour identifier les erreurs
  4. Ouvrez une issue sur GitHub si le problème persiste

🚀 Déploiement sur Render

Configuration automatique

Le projet inclut un fichier render.yaml pour un déploiement automatique.

Configuration manuelle

  1. Type de service : Web Services
  2. Build Command : pip install -r requirements.txt
  3. Start Command : gunicorn app:app -k uvicorn.workers.UvicornWorker --bind 0.0.0.0:$PORT
  4. Variables d'environnement :
    • API_TOKEN : Votre token BrightData
    • BROWSER_AUTH : Votre authentification BrightData
    • WEB_UNLOCKER_ZONE : Votre zone BrightData
    • OPENAI_API_KEY : Votre clé API OpenAI

Endpoints disponibles

  • GET / : Page d'accueil
  • GET /health : Statut de santé
  • POST /explore : Exploration complète d'un site
  • POST /search : Recherche sur un site
  • POST /scrape : Scraping d'une page
  • POST /chat : Chat avec l'agent

🔄 Mise à Jour

Pour mettre à jour le projet :

git pull origin main pip install -r requirements.txt --upgrade

Développé avec ❤️ pour l'exploration intelligente du web

Related MCP Servers

  • A
    security
    A
    license
    A
    quality
    AI-driven browser automation server that implements the Model Context Protocol to enable natural language control of web browsers for tasks like navigation, form filling, and visual interaction.
    Last updated -
    1
    1
    Python
    MIT License
    • Apple
  • A
    security
    F
    license
    A
    quality
    A Model Context Protocol server that enables AI assistants to perform real-time web searches, retrieving up-to-date information from the internet via a Crawler API.
    Last updated -
    1
    616
    14
    JavaScript
    • Apple
    • Linux
  • A
    security
    A
    license
    A
    quality
    A Model Context Protocol server enabling AI assistants to scrape web content with high accuracy and flexibility, supporting multiple scraping modes and content formatting options.
    Last updated -
    4
    425
    2
    TypeScript
    MIT License
    • Linux
    • Apple
  • A
    security
    F
    license
    A
    quality
    A Model Context Protocol server that intelligently fetches and processes web content, transforming websites and documentation into clean, structured markdown with nested URL crawling capabilities.
    Last updated -
    2
    405
    3
    TypeScript

View all related MCP servers

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/elonmsk/MCP'

If you have feedback or need assistance with the MCP directory API, please join our Discord server