Files
brain-template/brain-engine
Tetardtek-Cortex 5c060dcc1c fix: start.sh auto-build brain-ui + /health tolerant sans Ollama + docs source unique brain-engine
- start.sh: detecte brain-ui/dist absent → build auto si Node dispo, warning sinon
- start.sh: lien docs pointe vers /ui/docs (page rendue) au lieu de /docs (JSON)
- server.py /health: tolere absence table embeddings (pas d'Ollama = indexed:0, pas crash)
- server.py /docs/view: redirect 302 → /ui/docs pour navigateurs
- public/docs/ supprime: source unique = docs/ servi par brain-engine API
2026-03-21 17:16:19 +01:00
..

name, type, context_tier
name type context_tier
brain-engine reference cold

brain-engine — Moteur local

Le cerveau du brain. Recherche semantique, API locale, embeddings, BSI.


Demarrage rapide

bash brain-engine/start.sh

Ca fait tout : installe les deps Python, cree brain.db, indexe le corpus si Ollama est present, et lance le serveur sur le port 7700.


Prerequis

  • Python 3.10+sudo apt install python3 python3-pip python3-venv
  • Ollama (optionnel mais recommande) — curl -fsSL https://ollama.com/install.sh | sh
    • Modele embedding : ollama pull nomic-embed-text
    • Sans Ollama : le serveur tourne mais la recherche semantique n'est pas disponible

Architecture

brain-engine/
  start.sh          <- script de demarrage standalone
  server.py         <- API HTTP (FastAPI, port 7700)
  mcp_server.py     <- MCP server (FastMCP, port 7701)
  embed.py          <- pipeline embeddings (Ollama + nomic-embed-text)
  search.py         <- recherche cosine similarity + filtre scope
  rag.py            <- couche RAG (boot queries + ad-hoc)
  schema.sql        <- tables SQLite (claims, signals, embeddings, sessions)
  migrate.py        <- migration brain.db
  distill.py        <- distillation session memory (featured+)
  requirements.txt  <- dependances Python

Endpoints principaux

  • GET /health — statut du serveur
  • GET /search?q= — recherche semantique dans le brain
  • GET /agents — liste des agents disponibles
  • GET /boot — contexte initial pour une session
  • GET /workflows — claims BSI ouverts
  • GET /tier — tier actif

Mode standalone

Sans token configure, le serveur donne acces total en localhost. C'est le mode par defaut quand tu forkes le brain.

Sans cle API (brain_api_key: null), le tier est free — toutes les fonctionnalites fondamentales sont disponibles.


Connexion Claude Code (MCP)

# Lancer le MCP server
python3 brain-engine/mcp_server.py

# Ajouter dans Claude Code
claude mcp add brain --transport http http://localhost:7701/mcp/