Skip to main content
Glama

Model Context Protocol Server

MCP-Server

Model Context Protocol

İleri Seviye MCP (Model Context Protocol) Sunucusu

GitHub Actions CI/CD License: MIT

Bu proje, modern yapay zeka uygulamaları için geliştirilmiş, durum bilgisi tutabilen (stateful), güvenli, optimize edilmiş ve ölçeklenebilir bir aracı (gateway) sunucusudur. Kurs boyunca sıfırdan inşa edilen bu servis, basit bir sohbet botunun ötesine geçerek, production ortamı için gerekli olan profesyonel mühendislik pratiklerini içerir.

Proje Hakkında

MCP Sunucusu, Büyük Dil Modelleri'nin (LLM) en büyük zayıflıklarından biri olan "hafızasızlığı" çözmek için tasarlanmıştır. Her kullanıcı için ayrı bir konuşma bağlamı (context) tutarak, yapay zekanın tutarlı ve kişiselleştirilmiş diyaloglar kurmasını sağlar.

Bu depo, bir fikrin nasıl adım adım profesyonel bir servise dönüştüğünün canlı bir örneğidir:

  1. Tasarım: RESTful API prensipleriyle bir "sözleşme" tasarlandı.
  2. Geliştirme: FastAPI ile asenkron bir web sunucusu, Redis ile de hızlı bir hafıza katmanı inşa edildi.
  3. Paketleme: Uygulama, Docker ile her yerde çalışabilen taşınabilir bir konteynere dönüştürüldü.
  4. Dağıtım: Tek komutla Google Cloud Run gibi sunucusuz bir platformda canlıya alındı.
  5. Otomasyon: GitHub Actions ile CI/CD boru hattı kurularak, her kod değişikliğinin otomatik olarak dağıtılması sağlandı.
  6. Yönetim: Gözlemlenebilirlik, güvenlik ve maliyet optimizasyonu gibi üretim ortamı için kritik olan yetenekler eklendi.

Öne Çıkan Özellikler

  • Durum Bilgisi Tutan Konuşmalar: Redis kullanarak her kullanıcı için ayrı ve kalıcı sohbet geçmişi yönetimi.
  • Modern API: FastAPI ile geliştirilmiş, yüksek performanslı ve asenkron RESTful API.
  • Otomatik Dokümantasyon: Koddan otomatik olarak oluşturulan interaktif Swagger/OpenAPI dokümantasyonu.
  • Konteynerleştirilmiş: Docker ile paketlenmiş, taşınabilir ve tutarlı bir dağıtım imkanı.
  • Sunucusuz (Serverless) Uyumlu: Google Cloud Run gibi platformlarda kolayca çalıştırılabilir.
  • CI/CD Otomasyonu: GitHub Actions ile git push sonrası otomatik dağıtım.
  • Güvenlik Önlemleri: Hız limiti (Rate Limiting) ve temel Prompt Injection savunmaları.
  • Maliyet Optimizasyonu: Akıllı önbellekleme (caching) ile gereksiz API çağrılarının önlenmesi.
  • Gözlemlenebilirlik: Google Cloud Logging ile entegre, yapılandırılmış (structured) loglama.
  • Codespaces Entegrasyonu: Tek tıkla, bulut tabanlı, tam yapılandırılmış bir geliştirme ortamı.

Mimari

Uygulama, bir aracı (Gateway) mimarisi üzerine kurulmuştur. Kullanıcıdan gelen istekleri karşılar, Redis'ten ilgili hafıza/bağlam bilgisini alır, bu bilgilerle zenginleştirilmiş bir prompt oluşturarak OpenAI gibi bir LLM servisine gönderir ve aldığı yanıtı tekrar hafızayı güncelleyerek kullanıcıya döner.

Modül ve Derslere Hızlı Erişim

Başlarken: GitHub Codespaces ile Kurulum ve Çalıştırma

Bu proje, yerel kuruluma ihtiyaç duymadan, tamamen GitHub Codespaces üzerinde çalışmak üzere tasarlanmıştır.

Ön Koşullar

  1. GitHub Hesabı: Codespaces özelliğini kullanabilen bir GitHub hesabı.
  2. OpenAI API Anahtarı: OpenAI'dan alınmış, sk-... ile başlayan geçerli bir API anahtarı.

Adım Adım Kurulum

1. Bu Depoyu Kendi Hesabınıza Alın

Bu projeyi kendi hesabınızda denemek için sağ üst köşedeki Fork butonuna tıklayarak kendi hesabınıza bir kopyasını oluşturun.

2. OpenAI API Anahtarınızı Yapılandırın

API anahtarınız, projenin en önemli sırrıdır ve güvenli bir şekilde saklanmalıdır.

  • Fork'ladığınız deponuzun ana sayfasına gidin.
  • Settings > Secrets and variables > Codespaces yolunu izleyin.
  • New repository secret butonuna tıklayın.
  • Name: OPENAI_API_KEY
  • Value: sk-... ile başlayan kendi OpenAI API anahtarınızı yapıştırın.
  • Add secret diyerek kaydedin.

3. Codespace'i Başlatın

  • Deponuzun ana sayfasına dönün.
  • Yeşil renkli <> Code butonuna tıklayın.
  • Codespaces sekmesine geçin.
  • Create codespace on main butonuna tıklayın.

4. Arkanıza Yaslanın ve Bekleyin

GitHub, sizin için bulutta bir geliştirme ortamı hazırlayacaktır. .devcontainer yapılandırması sayesinde tüm kurulumlar (Python kütüphaneleri dahil) otomatik olarak yapılacaktır.

5. Servisleri Başlatın

Ortam hazır olduğunda, VS Code içindeki TERMINAL'i açın ve aşağıdaki kod hücrelerini sırayla çalıştırın.

Proje Dosya Yapısı

Projenin tamamlanmış hali aşağıdaki dosya yapısına sahiptir:

6. Uygulamanıza Erişin ve Test Edin

Yukarıdaki uvicorn komutu çalıştığında, Codespaces sağ alt köşede 8000 portunun kullanılabilir olduğuna dair bir bildirim gösterecektir.

  • VS Code'da PORTS sekmesine gidin (Genellikle Terminal'in yanındadır).
  • "8000" portu için listelenen "Forwarded Address" (Yönlendirilen Adres) URL'sini bulun. Bu URL, https://...app.github.dev şeklinde olacaktır.
  • Artık uygulamanız bu genel URL üzerinden erişilebilir durumda!

API Kullanımı ve Test

Aşağıdaki kod hücrelerini çalıştırarak canlıdaki servisinizi test edebilirsiniz. Önce bir üstteki hücreden yönlendirilen URL'nizi alıp aşağıdaki URL değişkenine atamanız gerekmektedir.

Related MCP Servers

  • -
    security
    F
    license
    -
    quality
    A TypeScript-based server that provides a memory system for Large Language Models (LLMs), allowing users to interact with multiple LLM providers while maintaining conversation history and offering tools for managing providers and model configurations.
    Last updated -
    25
    JavaScript
    • Apple
  • -
    security
    A
    license
    -
    quality
    An experimental Model Context Protocol server that enables Large Language Models to read, search, and manipulate OpenFGA authorization stores, unlocking fine-grained access control for agentic AI and natural language interactions.
    Last updated -
    10
    Apache 2.0
  • -
    security
    F
    license
    -
    quality
    A server that allows AI agents to consult multiple large language models (like Grok, Gemini, Claude, GPT-4o) through Model Context Protocol for assistance and information.
    Last updated -
    4
    JavaScript
  • -
    security
    A
    license
    -
    quality
    A middleware system that connects large language models (LLMs) with various tool services through an OpenAI-compatible API, enabling enhanced AI assistant capabilities with features like file operations, web browsing, and database management.
    Last updated -
    3
    Python
    MIT License

View all related MCP servers

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/BilgisayarKavramlari/MCP-Server'

If you have feedback or need assistance with the MCP directory API, please join our Discord server