Facebook Icon X Twitter Icon LinkedIn Icon LinkedIn Icon
Stellaris MCP: semantische Suche in Ihrer Codebase

Stellaris MCP: semantische Suche in Ihrer Codebase

Wenn Sie mit Hilfe von Claude, Cursor oder einem anderen KI-Agenten entwickeln, haben Sie diese Frustration wahrscheinlich schon erlebt: Die KI begeht Fehler, die nichts mit ihren Fähigkeiten zu tun haben. Sie schlägt Code vor, der eine bereits vorhandene Funktion dupliziert. Sie halluziniert Imports. Sie behebt einen Bug und erzeugt dabei drei neue, weil sie nicht gesehen hat, dass die Logik anderswo bereits behandelt wird.

Das ist kein Intelligenzproblem — es ist ein Kontextproblem.

Ein KI-Agent, so leistungsfähig er auch sein mag, kann nicht bei jedem Austausch das gesamte Projekt lesen. Das wäre zu langsam und vor allem viel zu teuer in Tokens. Also arbeitet er mit dem, was Sie ihm explizit geben, und errät den Rest. Was bei kleinen isolierten Dateien gut funktioniert, wird bei einem echten Projekt mit Dutzenden von Dateien, Hunderten von Funktionen und einer über Monate gewachsenen Architektur schnell zum Problem.

Die Lösung besteht darin, der KI eine Möglichkeit zu geben, bei Bedarf in Ihrem Code zu suchen — ihr eine Art interne Suchmaschine anzubieten, die versteht, wonach Sie suchen, auch wenn Sie den genauen Namen der Funktion oder Datei nicht kennen.

Genau das leistet Stellaris MCP: ein Open-Source-Tool, das ich entwickelt und auf GitHub veröffentlicht habe, konzipiert für die direkte Integration in Claude Desktop (und jeden MCP-kompatiblen Client).

Es ermöglicht der KI, den richtigen Code-Abschnitt genau dann präzise zu lokalisieren, wenn er benötigt wird — ohne das gesamte Projekt in den Speicher laden zu müssen.

Ergebnis: weniger Fehler, weniger verbrauchte Tokens und ein Assistent, der Ihre Codebase wirklich versteht.

Sie müssen kein erfahrener Entwickler sein, um davon zu profitieren — wenn Sie Claude auch nur gelegentlich beim Programmieren nutzen, spart Ihnen Stellaris MCP bereits ab der ersten Sitzung Zeit.

Was ist ein MCP-Server?

Stellen Sie sich vor, Claude könnte in Ihrem Auftrag Schaltflächen bedienen: eine Datei öffnen, Ihre Datenbank durchsuchen, eine externe API aufrufen. Genau das ermöglicht das Model Context Protocol (MCP) — ein offener Standard, den Anthropic entwickelt hat und der KI-Agenten die Fähigkeit gibt, strukturiert und sicher mit Drittanbieter-Tools zu interagieren.

In der Praxis stellt ein MCP-Server „Tools” bereit — Funktionen, die die KI während eines Gesprächs je nach Bedarf aufrufen kann. Claude verwendet sie nicht dauerhaft: Er ruft sie nur dann auf, wenn es relevant ist — so wie Sie einen Kollegen um eine bestimmte Information bitten würden, anstatt ihm sofort die gesamte Akte zu schicken.

Diese „On-Demand”-Logik macht MCP-Server so effektiv beim Token-Sparen und bei der Reduzierung von Inferenzkosten. Anstatt sicherheitshalber 50 Dateien in den Kontext zu laden, kann Claude genau das anfordern, was es benötigt, genau dann, wenn es benötigt wird.

KI-Roboter sucht ohne Kontext in einer Codebase, ungenaue und ineffiziente Suche

Stellaris MCP stellt sechs solcher Tools bereit, aufgeteilt in zwei komplementäre Kategorien: die semantische Suche (die Ihre Absichten versteht) und die strukturelle Exploration (die die Syntax Ihres Codes analysiert).

Funktionsweise: zwei komplementäre Ansätze

Stellaris MCP verfügt über zwei Betriebsmodi, je nachdem, was Sie tun möchten.

Nach Absicht suchen, nicht nach Schlüsselwort

Der erste Modus ist die semantische Suche. Konkret analysiert Stellaris Ihr Projekt und erstellt eine Art digitalen Fingerabdruck für jede Funktion, Komponente oder Klasse. Diese Fingerabdrücke werden lokal auf Ihrem Rechner in einem kleinen, unsichtbaren Ordner gespeichert.

Der Vorteil? Wenn Claude etwas braucht, kann es nach Absicht suchen — „die Funktion, die das Benutzer-Login verwaltet” — ohne den genauen Namen der Datei oder Methode zu kennen. Es ist wie Google für Ihren Code: Sie beschreiben, was Sie suchen, und die Engine findet die relevanteste Übereinstimmung.

Diese Indizierung nutzt die OpenAI-API (ein Schlüssel ist erforderlich), aber die Kosten sind minimal — wenige Cents für ein ganzes Projekt — und der Index wird inkrementell aktualisiert: Nur geänderte Dateien werden bei jedem Start neu analysiert.

Drei Tools decken diesen Modus ab:

  • Code-Suche — in natürlicher Sprache, über alle Ihre Quelldateien
  • Dokumentations-Suche — in Ihren Markdown-Dateien
  • Neu-Indizierung — um eine Index-Aktualisierung zu erzwingen

Die Struktur erkunden, ohne einen einzigen Token auszugeben

Der zweite Modus ist vollständig kostenlos: kein API-Schlüssel, kein Netzwerkaufruf. Er analysiert lediglich die Syntax Ihres Codes, um seine Struktur zu extrahieren — genau wie es eine IDE tun würde.

Drei Tools in dieser Kategorie:

  • Baumansicht — die vollständige Liste aller Ihrer Dateien mit Statistiken nach Sprache
  • Datei-Gliederung — alle Funktionen und Klassen einer Datei mit ihren Zeilennummern
  • Symbol-Quellcode — der genaue Code einer bestimmten Funktion mit ihrem Kontext (siehe unten)

Dieser Modus ist besonders nützlich, damit Claude Ihr Projekt zu Beginn einer Sitzung „entdecken” kann, ohne alles in den Speicher laden zu müssen.

Der eigentliche Mehrwert: automatischer Kontext

Hier ist ein Detail, das die Ergebnisqualität wirklich verändert. Wenn ein Suchtool eine Funktion zurückgibt, erhalten Sie einfach… die Funktion. Das erscheint logisch, schafft aber ein praktisches Problem: Claude weiß nicht, woher die verwendeten Variablen stammen, und ob im selben File bereits ähnliche Funktionen existieren.

Stellaris macht etwas Intelligenteres: Wenn es eine Funktion für Claude abruft, hängt es automatisch das Umfeld an — die Import-Liste der Datei, die Namen der benachbarten Funktionen und eventuelle Warnkommentare (TODO, FIXME usw.) in der Datei.

Das ist ein kleiner Informationsmehraufwand (etwa hundert Tokens), der aber die häufigsten Fehler vermeidet: blindes Refactoring, Code-Duplikation, Korrekturen, die unbemerkt etwas anderes kaputtmachen. Ein gutes Kosten-Nutzen-Verhältnis.

Semantische Codesuche mit Stellaris MCP — Lasergenauigkeit, zielgenaues Ergebnis

Kompatibel mit Ihren gewohnten Sprachen

Stellaris MCP unterstützt nativ TypeScript, JavaScript, React (TSX/JSX), Python, Go, Rust, PHP, HTML und CSS — sowie Markdown-Dateien für die Dokumentation. Das deckt die große Mehrheit der aktuellen Web- und Backend-Projekte ab.

Wie sieht das in der Praxis aus?

Nach der Installation wird der natürliche Workflow mit Claude folgender:

  1. Zu Beginn einer Sitzung fordert Claude an, die Struktur Ihres Projekts zu sehen — mit einem einzigen Aufruf weiß es, was existiert und wo
  2. Wenn es etwas Bestimmtes sucht, führt es eine absichtsbasierte Suche durch, anstatt Sie zu bitten, Code einzufügen
  3. Wenn es eine Funktion modifiziert, ruft es den vollständigen Kontext ab, bevor es etwas schreibt

Die meisten dieser Operationen sind völlig kostenlos — nur die semantische Suche nutzt die OpenAI-API, und zwar ausschließlich bei der Erstindizierung oder bei Updates. Im normalen Betrieb geben Sie kaum etwas aus.

Installation und Claude Desktop-Integration

git clone https://github.com/GDM-Pixel/stellaris-code-search.git
cd stellaris-code-search
npm install
npm run build

Dann in Ihrer claude_desktop_config.json:

{
  "mcpServers": {
    "stellaris-mcp": {
      "command": "node",
      "args": ["/pfad/zu/stellaris-code-search/dist/index.js"],
      "env": {
        "OPENAI_API_KEY": "sk-..."
      }
    }
  }
}

Ohne OpenAI-Schlüssel startet der Server normal — die drei AST-Tools bleiben verfügbar.

Wirklich Open Source

Das Projekt ist unter der MIT-Lizenz auf GitHub veröffentlicht: github.com/GDM-Pixel/stellaris-code-search

Beiträge willkommen — Issues, Pull Requests, Vorschläge für weitere Sprachen. Wenn Sie es in Ihren Projekten einsetzen und auf Grenzfälle stoßen, öffnen Sie ein Issue.

Es ist ein Tool, das ich für meine eigenen Entwicklungs-Workflows bei GDM-Pixel und bei Nova-Mind gebaut habe. Ich teile es, weil das Code-Kontext-Problem für KI-Agenten universell ist — und eine offene Lösung mehr wert ist als eine proprietäre, die in einem SaaS eingesperrt ist.

Charles Annoni

Charles Annoni

Front-End-Entwickler und Ausbilder

Charles Annoni begleitet Unternehmen seit 2008 bei ihrer Webentwicklung. Er ist auch Ausbilder in der Hochschulbildung.