RAG-MCP 서버
RISC Zero의 Bonsai 문서로 테스트하도록 설계된, 모델 제어 프로토콜(MCP)을 사용하는 범용 검색 증강 생성(RAG) 서버입니다.
개요
이 프로젝트는 다음을 수행하는 RAG 서버를 구현합니다.
- 표준화된 통신을 위해 MCP(Model Control Protocol)를 사용합니다.
- 문서 쿼리를 위한 RAG(검색 증강 생성) 워크플로 구현
- RISC Zero의 Bonsai 문서로 테스트할 수 있습니다.
- Ollama를 통한 로컬 LLM 통합 지원
특징
- 문서 수집 및 인덱싱
- 의미 검색 기능
- 로컬 LLM 통합
- MCP 프로토콜 준수
- RISC Zero Bonsai 문서 지원
필수 조건
- 파이썬 3.12+
- Ollama(지역 LLM 지원용)
- 시(의존성 관리를 위한)
설치
- Python 종속성 설치:
지엑스피1
- Ollama를 설치하고 시작하세요:
# Install Ollama
brew install ollama # for macOS
# or
curl -fsSL https://ollama.com/install.sh | sh # for Linux
# Start Ollama service
ollama serve
- 필요한 모델을 가져옵니다.
용법
- MCP 서버를 시작합니다.
poetry run python mcp_server.py
- 서버는 다음을 수행합니다.
- LLM 및 임베딩 모델 초기화
- 데이터 디렉토리에서 문서 수집
- RAG 워크플로를 사용하여 쿼리 처리
- RISC Zero Bonsai 문서로 테스트:
- RISC Zero Bonsai 문서를
data/
디렉토리에 넣으세요. - 서버에 Bonsai 기능 및 구현에 대한 질의를 보내세요
프로젝트 구조
mcp_server.py
: 메인 서버 구현rag.py
: RAG 워크플로 구현data/
: 문서 수집을 위한 디렉토리storage/
: 벡터 저장소 및 문서 저장소start_ollama.sh
: Ollama 서비스를 시작하는 스크립트
RISC Zero Bonsai로 테스트
이 서버는 RISC Zero의 Bonsai 문서를 사용하도록 구성되어 있습니다. 다음 작업을 수행할 수 있습니다.
data/
디렉토리에 Bonsai 문서를 추가합니다.- Bonsai 기능, 구현 세부 사항 및 사용법에 대한 문의
- 본사이 관련 질문을 통해 RAG 워크플로 테스트