Si vous développez avec l’aide de Claude, Cursor ou un autre agent IA, vous avez probablement déjà vécu cette frustration : l’IA fait des erreurs qui n’ont rien à voir avec ses capacités. Elle propose du code qui duplique une fonction déjà existante. Elle hallucine des imports. Elle corrige un bug en en créant trois autres, parce qu’elle n’a pas vu que la logique était déjà gérée ailleurs.
Ce n’est pas un problème d’intelligence — c’est un problème de contexte.
Un agent IA, aussi puissant soit-il, ne peut pas lire l’intégralité de votre projet à chaque échange. Ce serait trop lent, et surtout beaucoup trop coûteux en tokens. Alors il travaille sur ce que vous lui donnez explicitement, et devine le reste. Ce qui fonctionne bien sur des petits fichiers isolés devient rapidement un problème sur un vrai projet avec des dizaines de fichiers, des centaines de fonctions, et une architecture qui a évolué sur plusieurs mois.
La solution, c’est de donner à l’IA un moyen de chercher dans votre code à la demande — de lui offrir une espèce de moteur de recherche interne qui comprend ce que vous cherchez, même si vous ne connaissez pas le nom exact de la fonction ou du fichier.
C’est exactement ce que fait Stellaris MCP : un outil open source que j’ai développé et publié sur GitHub, conçu pour s’intégrer directement à Claude Desktop (et tout client compatible MCP).
Il permet à l’IA de localiser précisément le bon morceau de code au bon moment, sans avoir besoin de charger tout votre projet en mémoire.
Résultat : moins d’erreurs, moins de tokens consommés, et un assistant qui comprend vraiment votre codebase.
Pas besoin d’être développeur confirmé pour en tirer parti — si vous utilisez Claude pour vous aider à coder, même occasionnellement, Stellaris MCP vous fera gagner du temps dès la première session.
Qu’est-ce qu’un serveur MCP ?
Imaginez que Claude puisse appuyer sur des boutons à votre place : ouvrir un fichier, faire une recherche dans votre base de données, appeler une API externe. C’est exactement ce que permet le Model Context Protocol (MCP) — un standard ouvert développé par Anthropic qui donne aux agents IA la capacité d’interagir avec des outils tiers de façon structurée et sécurisée.
En pratique, un serveur MCP expose des “tools” — des fonctions que l’IA peut invoquer pendant une conversation, selon ses besoins. Claude ne les utilise pas en permanence : il les appelle uniquement quand c’est pertinent, comme vous appelleriez un collègue pour lui demander une info spécifique plutôt que de lui envoyer tout le dossier d’emblée.
C’est cette logique “à la demande” qui rend les serveurs MCP si efficaces pour économiser des tokens et réduire les coûts d’inférence. Au lieu de charger 50 fichiers en contexte par précaution, Claude peut demander précisément ce dont il a besoin, au moment où il en a besoin.
Stellaris MCP expose six outils de ce type, répartis en deux catégories complémentaires : la recherche sémantique (qui comprend vos intentions) et l’exploration structurelle (qui analyse la syntaxe de votre code).
Comment ça fonctionne : deux approches complémentaires
Stellaris MCP dispose de deux modes de fonctionnement, selon ce que vous voulez faire.
Chercher par intention, pas par mot-clé
Le premier mode, c’est la recherche sémantique. Concrètement, Stellaris analyse votre projet et crée une sorte d’empreinte numérique de chaque fonction, composant ou classe. Ces empreintes sont stockées localement sur votre machine dans un petit dossier invisible.
L’avantage ? Quand Claude a besoin de quelque chose, il peut chercher par intention — “la fonction qui gère la connexion utilisateur” — sans connaître le nom exact du fichier ou de la méthode. C’est comme Google pour votre code : vous décrivez ce que vous cherchez, et le moteur trouve la correspondance la plus pertinente.
Cette indexation utilise l’API OpenAI (une clé est nécessaire), mais le coût est minimal — quelques centimes pour un projet entier — et l’index est mis à jour de façon incrémentale : seuls les fichiers modifiés sont ré-analysés à chaque démarrage.
Trois outils couvrent ce mode :
- Recherche dans le code — en langage naturel, dans tous vos fichiers source
- Recherche dans la doc — dans vos fichiers Markdown
- Réindexation — pour forcer une mise à jour de l’index
Explorer la structure, sans dépenser un seul token
Le deuxième mode est entièrement gratuit : aucune clé API, aucun appel réseau. Il analyse simplement la syntaxe de votre code pour en extraire la structure — exactement comme un IDE le ferait.
Trois outils dans cette catégorie :
- Vue arborescente — la liste complète de tous vos fichiers, avec les stats par langage
- Plan d’un fichier — toutes les fonctions et classes d’un fichier, avec leurs numéros de ligne
- Code source d’un symbole — le code exact d’une fonction spécifique, avec son contexte (voir ci-dessous)
Ce mode est particulièrement utile pour que Claude “découvre” votre projet au début d’une session, sans avoir à tout charger en mémoire.
Le vrai plus : le contexte automatique
Voici un détail qui change vraiment la qualité du résultat. Quand un outil de recherche vous retourne une fonction, il vous donne juste… la fonction. Ce qui semble logique, mais pose un problème pratique : Claude ne sait pas d’où viennent les variables utilisées, ni si des fonctions similaires existent déjà dans le même fichier.
Stellaris fait quelque chose de plus intelligent : quand il récupère une fonction pour Claude, il joint automatiquement ce qui l’entoure — la liste des imports du fichier, les noms des autres fonctions voisines, et les éventuels commentaires d’avertissement (TODO, FIXME, etc.) présents dans le fichier.
C’est un petit surplus d’information (environ une centaine de tokens), mais il évite les erreurs les plus fréquentes : refactorisation aveugle, duplication de code, correction qui casse autre chose sans le savoir. Un bon rapport qualité/coût.
Compatible avec vos langages habituels
Stellaris MCP supporte nativement TypeScript, JavaScript, React (TSX/JSX), Python, Go, Rust, PHP, HTML et CSS — ainsi que les fichiers Markdown pour la documentation. Ça couvre la très grande majorité des projets web et backend courants.
En pratique, ça ressemble à quoi ?
Une fois installé, le workflow naturel avec Claude devient celui-ci :
- Au démarrage d’une session, Claude demande à voir la structure de votre projet — en un appel, il sait ce qui existe et où
- Quand il cherche quelque chose de précis, il fait une recherche par intention plutôt que de vous demander de coller du code
- Quand il modifie une fonction, il récupère son contexte complet avant d’écrire quoi que ce soit
La plupart de ces opérations sont entièrement gratuites — seule la recherche sémantique utilise l’API OpenAI, et uniquement lors de l’indexation initiale ou des mises à jour. En utilisation courante, vous ne dépensez presque rien.
Installation et intégration Claude Desktop
git clone https://github.com/GDM-Pixel/stellaris-code-search.git
cd stellaris-code-search
npm install
npm run build
Puis dans votre claude_desktop_config.json :
{
"mcpServers": {
"stellaris-mcp": {
"command": "node",
"args": ["/chemin/vers/stellaris-code-search/dist/index.js"],
"env": {
"OPENAI_API_KEY": "sk-..."
}
}
}
}
Sans clé OpenAI, le serveur démarre normalement — les trois outils AST restent disponibles.
Open source, vraiment
Le projet est publié sous licence MIT sur GitHub : github.com/GDM-Pixel/stellaris-code-search
Contributions bienvenues — issues, pull requests, suggestions de langages supplémentaires. Si vous l’utilisez sur vos projets et que vous trouvez des cas limites, ouvrez une issue.
C’est un outil que j’ai construit pour mes propres workflows de développement chez GDM-Pixel et sur Nova-Mind. Je le partage parce que le problème du contexte de code pour les agents IA est universel — et qu’une solution ouverte vaut mieux qu’une solution propriétaire enfermée dans un SaaS.