Codestral: KI-Tool Test & Bewertung
Codestral ist Mistrals spezialisiertes Sprachmodell für Code, trainiert auf über 80 Programmiersprachen. Version 25.01 brachte ein 256K-Kontextfenster und doppelte Inferenzgeschwindigkeit. Das Modell wird als Autocomplete-Backend in VS Code und JetBrains IDEs eingesetzt und ist über Mistral, Google Vertex AI und Azure AI Foundry verfügbar.
Zuletzt aktualisiert: 14. März 2026
Die meisten KI-Coding-Tools basieren auf allgemeinen Sprachmodellen, die nachträglich auf Code feinjustiert wurden. Codestral ist von Grund auf für Code trainiert, was sich besonders bei Fill-in-the-Middle-Aufgaben bemerkbar macht: Das Modell sieht sowohl den Code vor als auch nach der Lücke und vervollständigt den fehlenden Teil zielgenau. Einsetzen lassen es sich direkt als Autocomplete-Backend in VS Code oder JetBrains über die Continue-Extension.
Wichtigste Funktionen
- Fill-in-the-Middle (FIM): Codestral versteht Code vor und nach einer Lücke und füllt sie präziser aus als Modelle, die nur vorwärts generieren. Damit eignet es sich besonders für Autocomplete mitten im Code.
- 256K Kontextfenster: Seit Version 25.01 passen ganze Codebases oder umfangreiche Abhängigkeitsgraphen in einen einzigen Prompt. Das ältere 22B-Modell hatte nur 32K.
- Über 80 Programmiersprachen: Codestral ist auf ungewöhnliche Sprachen wie Fortran, Swift und Bash trainiert, die in allgemeinen Modellen oft schlechter abschneiden.
- IDE-Integration: Über die Continue-Extension lassen sich Codestral in VS Code und JetBrains als Inline-Autocomplete einrichten, ähnlich wie GitHub Copilot.
- Enterprise On-Premises: Für Unternehmen mit Datenschutzanforderungen bietet Mistral lokale oder VPC-Deployments an.
Preise und Tarife
Für die IDE-Integration über VS Code oder JetBrains ist Codestral kostenlos nutzbar, über einen eigenen API-Endpunkt bei Mistral. Wer Codestral in eigene Anwendungen einbauen will, nutzen die kostenpflichtige Mistral-API über la Plateforme. Das ältere Codestral 22B (v0.1) ist weiterhin kostenfrei über HuggingFace herunterladbar und lokal über Ollama betreibbar, hat aber nur ein 32K-Kontextfenster. Enterprise-Kunden mit On-Premises-Anforderungen wenden sich direkt an Mistral.
Für wen ist Codestral geeignet?
- Entwickler, die ein kostenloses Copilot-Äquivalent suchen: Wer GitHub Copilot zu teuer ist, bekommt mit Codestral eine leistungsstarke Alternative, die in denselben IDEs funktioniert.
- Teams mit seltenen Programmiersprachen: Bei Sprachen wie Fortran, COBOL oder spezialisierten Bash-Skripten ist Codestral oft besser als allgemeine Modelle.
- Unternehmen mit On-Premises-Anforderungen: Wer Code nicht in fremde Clouds schicken darf, kann Codestral im eigenen Rechenzentrum oder in einer privaten VPC betreiben.
DSGVO und Datenschutz
Die Cloud-API von Mistral wird auf europäischen Servern betrieben, was die DSGVO-Situation günstiger macht als bei US-Anbietern. Allerdings ist Codestral über la Plateforme nicht automatisch DSGVO-konform, da Verarbeitungsdetails und Datenschutzvereinbarungen je nach Vertrag variieren. Für echte Datenschutzkonformität bietet Mistral On-Premises-Deployments an, bei denen kein Code das eigene Netzwerk verlassen. Das ältere 22B-Modell lokal über Ollama zu betreiben ist die datenschutzfreundlichste Option.
Alternativen zu Codestral
- Mistral Vibe: CLI-Coding-Agent von Mistral, der Codestral als Backend nutzen kann und vollständig Open Source ist.
- Claude Code: Stärker bei komplexen, mehrstufigen Aufgaben über ganze Codebases, aber nur mit Claude-Modellen und ohne kostenlose Nutzung.
- Cursor: Vollständiger Editor mit tieferer IDE-Integration, nutzen eigene Modelle und OpenAI im Hintergrund.
Vorteile
- Speziell für Code optimiert, über 80 Programmiersprachen
- 256K Kontextfenster seit Version 25.01, ganze Codebases im Kontext
- Etwa doppelt so schnell wie die Vorgängerversion 22B
- Kostenlos für IDE-Integration über die dedizierte Codestral-API
- On-Premises-Deployment für Unternehmen verfügbar
Nachteile
- Neuere Versionen nicht als Open Weights verfügbar, nur über API
- Bei allgemeinen Textaufgaben schwächer als Allzweck-Modelle
- Cloud-API nicht DSGVO-konform
- Nur das ältere Codestral 22B (v0.1) ist über Ollama lokal betreibbar