- brain-engine: server, embed, search, RAG, MCP, start.sh (standalone) - brain-ui: source React complète, build.sh, DocsView avec tier colors - docs: 14 pages guides humains (getting-started, architecture, sessions, workflows, agents, vues tier) - brain-compose.yml v0.9.0: tier featured ajouté, sessions/agents par tier, coach_level, API key schema - DISTRIBUTION_CHECKLIST v1.2: brain-engine + brain-ui + docs dans la checklist
78 lines
2.0 KiB
Markdown
78 lines
2.0 KiB
Markdown
---
|
|
name: brain-engine
|
|
type: reference
|
|
context_tier: cold
|
|
---
|
|
|
|
# brain-engine — Moteur local
|
|
|
|
> Le cerveau du brain. Recherche semantique, API locale, embeddings, BSI.
|
|
|
|
---
|
|
|
|
## Demarrage rapide
|
|
|
|
```bash
|
|
bash brain-engine/start.sh
|
|
```
|
|
|
|
Ca fait tout : installe les deps Python, cree brain.db, indexe le corpus si Ollama est present, et lance le serveur sur le port 7700.
|
|
|
|
---
|
|
|
|
## Prerequis
|
|
|
|
- **Python 3.10+** — `sudo apt install python3 python3-pip python3-venv`
|
|
- **Ollama** (optionnel mais recommande) — `curl -fsSL https://ollama.com/install.sh | sh`
|
|
- Modele embedding : `ollama pull nomic-embed-text`
|
|
- Sans Ollama : le serveur tourne mais la recherche semantique n'est pas disponible
|
|
|
|
---
|
|
|
|
## Architecture
|
|
|
|
```
|
|
brain-engine/
|
|
start.sh <- script de demarrage standalone
|
|
server.py <- API HTTP (FastAPI, port 7700)
|
|
mcp_server.py <- MCP server (FastMCP, port 7701)
|
|
embed.py <- pipeline embeddings (Ollama + nomic-embed-text)
|
|
search.py <- recherche cosine similarity + filtre scope
|
|
rag.py <- couche RAG (boot queries + ad-hoc)
|
|
schema.sql <- tables SQLite (claims, signals, embeddings, sessions)
|
|
migrate.py <- migration brain.db
|
|
distill.py <- distillation session memory (featured+)
|
|
requirements.txt <- dependances Python
|
|
```
|
|
|
|
---
|
|
|
|
## Endpoints principaux
|
|
|
|
- `GET /health` — statut du serveur
|
|
- `GET /search?q=` — recherche semantique dans le brain
|
|
- `GET /agents` — liste des agents disponibles
|
|
- `GET /boot` — contexte initial pour une session
|
|
- `GET /workflows` — claims BSI ouverts
|
|
- `GET /tier` — tier actif
|
|
|
|
---
|
|
|
|
## Mode standalone
|
|
|
|
Sans token configure, le serveur donne acces total en localhost. C'est le mode par defaut quand tu forkes le brain.
|
|
|
|
Sans cle API (`brain_api_key: null`), le tier est `free` — toutes les fonctionnalites fondamentales sont disponibles.
|
|
|
|
---
|
|
|
|
## Connexion Claude Code (MCP)
|
|
|
|
```bash
|
|
# Lancer le MCP server
|
|
python3 brain-engine/mcp_server.py
|
|
|
|
# Ajouter dans Claude Code
|
|
claude mcp add brain --transport http http://localhost:7701/mcp/
|
|
```
|