6. April 2026

Die besten Open-Source-Sprachmodelle 2026 für Unternehmen

Vor zwei Jahren war es noch ein Kompromiss: Wer Open-Source-Modelle einsetzte, akzeptierte eine spürbare Qualitätslücke gegenüber GPT-4 oder Claude. Diese Lücke existiert 2026 nicht mehr. Modelle wie Kimi K2.5 und GLM-5 erreichen bei Coding, Reasoning und wissenschaftlichen Aufgaben Werte die mit den besten proprietären Systemen mithalten. Für Unternehmen die Datenschutz ernst nehmen, ist das eine grundlegend andere Ausgangslage als noch vor einem Jahr.

Dieser Artikel vergleicht die aktuell relevanten Open-Source-Modelle mit verifizierten Benchmark-Zahlen aus den offiziellen Model Cards. Kein Marketing, keine Herstellerversprechen. Und am Ende eine klare Einschätzung welches Modell für welchen Unternehmenseinsatz sinnvoll ist.

Warum Open-Source für Unternehmen heute interessant ist

Der wichtigste Grund ist nicht Qualität, sondern Kontrolle. Wer ein proprietäres Modell über eine API nutzt, zahlt dauerhaft, hat keinen Einfluss auf das Modell selbst, und übergibt die Verarbeitung seiner Daten an einen externen Anbieter. Bei OpenAI bedeutet das US-amerikanisches Recht, CLOUD Act, und ein strukturelles Restrisiko das auch EU-Hosting nicht vollständig beseitigt.

Open-Source-Modelle laufen lokal auf eigener Hardware. Daten verlassen das Netzwerk nicht. Das Modell kann auf eigene Daten und Fachsprache feinabgestimmt werden. Und es gibt keine Token-Kosten, die mit der Nutzung linear wachsen.

Dazu kommt: Die Lizenzen der relevanten Modelle sind unternehmensfähig. MIT und Apache 2.0 erlauben kommerzielle Nutzung ohne Einschränkungen. Auch Fine-Tuning und interne Deployment sind abgedeckt.

Ein kurzer technischer Hinweis bevor wir zu den Modellen kommen: Die meisten modernen SOTA-Modelle sind sogenannte MoE-Modelle (Mixture of Experts). Sie haben eine hohe Gesamtparameterzahl, aktivieren aber pro Berechnungsschritt nur einen kleinen Bruchteil davon. Das bedeutet: Die Rechenleistung ist deutlich geringer als die Gesamtgröße vermuten lässt, während die Qualität erhalten bleibt. Ein Modell mit 230 Milliarden Parametern das 10 Milliarden aktiv nutzt, rechnet in der Praxis ähnlich schnell wie ein 10-Milliarden-Dense-Modell, liefert aber die Wissenstiefe eines größeren Systems.

Die Benchmarks erklärt

Bevor wir vergleichen, kurz zu den Metriken die wirklich aussagekräftig sind.

SWE-bench Verified misst wie gut ein Modell echte GitHub-Issues löst — also reale Software-Bugs, nicht synthetische Coding-Aufgaben. Das ist der relevanteste Coding-Benchmark für produktiven Einsatz.

GPQA Diamond besteht aus Fragen auf Doktorandenniveau in Physik, Chemie und Biologie. Er misst tiefes Reasoning, nicht oberflächliches Faktenwissen.

HumanEval ist ein klassischer Code-Generierungs-Benchmark. Nützlich als Vergleichspunkt, aber einfacher als reale Coding-Aufgaben.

LiveCodeBench misst Coding-Leistung auf aktuellen Wettbewerbsaufgaben die nach dem Trainingsdatum der Modelle veröffentlicht wurden — damit ist er schwerer zu "memoisieren".

Chatbot Arena (ELO) basiert auf menschlichen Präferenzurteilen in echten Gesprächen. Hohe ELO bedeutet, dass echte Nutzer dieses Modell bevorzugen.

Alle Zahlen unten stammen aus den offiziellen Model Cards und Technical Reports der Hersteller. Stand: April 2026. Vollständige Benchmarks auf unserer Modellseite.

Die Modelle im Vergleich

Kimi K2.5 — SOTA+ für anspruchsvolle Aufgaben

Moonshot AIs Flaggschiff bringt 1 Billion Gesamtparameter mit nur 32 Milliarden aktiven Parametern durch ein ultra-sparsames MoE mit 384 Experten. Das Kontextfenster reicht bis 256.000 Token. Lizenz: Modified MIT, kommerziell nutzbar.

Was Kimi K2.5 technisch auszeichnet ist Multi-Head Latent Attention (MLA), dieselbe Technik die auch DeepSeek nutzt. Der KV-Cache wird auf etwa ein Zehntel des normalen Umfangs komprimiert, was dieses Modell trotz seiner Größe sehr effizient im VRAM-Verbrauch macht. Dazu unterstützt es Vision-Eingaben nativ.

Benchmark Score
SWE-bench Verified 76,8%
GPQA Diamond 87,6%
HumanEval 99,0%
LiveCodeBench 85,0%
Chatbot Arena ELO 1.447

Gesamtdurchschnitt über alle Benchmarks: 70,9 (Rang 2 in unserer Übersicht).

Geeignet für: Autonome Agenten-Pipelines, Coding-Assistenten, komplexe Dokumentenanalyse, Aufgaben die Vision-Input erfordern. Wer Multi-Agenten-Workflows aufbauen will, findet in Kimi K2.5 das stärkste Modell für diesen Use Case. VRAM: 621 GB in Q4, für 8-Karten-Systeme.


GLM-5 — Höchste menschliche Präferenz

Z.ai (Zhipu AI) hat GLM-5 mit 744 Milliarden Gesamtparametern und 40 Milliarden aktiven Parametern auf 100.000 Huawei Ascend Chips trainiert. Das Modell nutzt DeepSeek Sparse Attention für effizientes Long-Context-Handling bei bis zu 198.000 Token. Lizenz: MIT.

GLM-5 führt derzeit den Chatbot Arena ELO an — das bedeutet, echte menschliche Bewerter ziehen es in direkten Vergleichen den meisten anderen Modellen vor. Das spiegelt sich auch in den SWE-bench-Zahlen wider.

Benchmark Score
SWE-bench Verified 77,8%
GPQA Diamond 86,0%
HumanEval 97,0%
LiveCodeBench 52,0%
Chatbot Arena ELO 1.451

Geeignet für: Komplexe Software-Engineering-Aufgaben, Long-Context-Analyse langer Dokumente, agentic Workflows. Schwächer bei LiveCodeBench als andere Frontier-Modelle, was auf eine andere Stärkeverteilung hinweist. VRAM: 457 GB in Q4. Ein wichtiger Hinweis: GLM-5 hat einen sehr großen KV-Cache pro Token (1.248 KB) durch seine Attention-Architektur — das schränkt die gleichzeitige Nutzerzahl stärker ein als bei Modellen mit MLA.


MiniMax-M2.5 — Stärkste Bug-Fixing-Leistung

MiniMax-M2.5 ist das Modell das sich auf der Codebasis von SWE-bench Verified am stärksten zeigt: 80,2 Prozent ist der höchste Wert unter allen Modellen die wir deployen. Es hat 230 Milliarden Gesamtparameter und 10 Milliarden aktive, unterstützt 200.000 Token Kontext und ist auf mehrsprachige Inhalte optimiert, unter anderem auf Deutsch. Lizenz: Modified MIT.

Benchmark Score
SWE-bench Verified 80,2%
GPQA Diamond 85,2%
HumanEval 92,0%
LiveCodeBench 65,0%
Chatbot Arena ELO Nicht verfügbar

Geeignet für: Coding-Agenten, Office-Automatisierung, mehrsprachige Anwendungen, Dokumentenanalyse mit langen Dokumenten. Das 200.000-Token-Fenster bedeutet, dass komplette Vertragswerke in einem Schritt verarbeitet werden können. VRAM: 140 GB in Q4, also bereits auf 2 Karten lauffähig. Dazu: Auf zwei bis drei RTX PRO 6000 Blackwell erreicht MiniMax-M2.5 über 100 Token pro Sekunde bei Single-Inference — das ist schneller als Cloud-API-Antwortzeiten unter realer Last.


DeepSeek V3.2 — Bestes Preis-Leistungsverhältnis

DeepSeek V3.2 von DeepSeek AI hat 685 Milliarden Gesamtparameter und 37 Milliarden aktive, nutzt ebenfalls MLA und Sparse Attention. Kontextfenster: 128.000 Token. Lizenz: MIT. Das Modell ist bekannt für sein exzellentes Verhältnis von Qualität zu Rechenaufwand.

Benchmark Score
SWE-bench Verified 73,1%
GPQA Diamond 82,4%
HumanEval 93,0%
LiveCodeBench 83,3%
MATH 97,0%

Geeignet für: Coding-Workflows, mathematische Aufgaben, Reasoning und agentic Tool-Use. DeepSeek V3.2 ist das kosteneffizienteste Frontier-Modell mit offenen Gewichten. Wer Wert auf mathematische Präzision legt oder viele Coding-Aufgaben parallel bearbeitet, findet hier eine sehr starke Option. VRAM: 404 GB in Q4. Wie Kimi K2.5 hat es durch MLA einen sehr kleinen KV-Cache pro Token (31 KB), was viele gleichzeitige Nutzer bei langen Kontexten ermöglicht.


Qwen3.5-397B — Stärkste Reasoning-Leistung

Alibabas Qwen3.5-397B hat mit 88,4 Prozent auf GPQA Diamond den höchsten Reasoning-Score in unserer Modellübersicht. 397 Milliarden Gesamtparameter, 17 Milliarden aktiv, 256.000 Token Kontext, 198 unterstützte Sprachen. Lizenz: Apache 2.0. Das Modell unterstützt nativ Text, Bild und Video durch Early-Fusion-Training.

Benchmark Score
SWE-bench Verified 76,4%
GPQA Diamond 88,4%
HumanEval 97,1%
LiveCodeBench 83,6%
MATH 97,8%

Geeignet für: Anspruchsvolle Analyse- und Reasoning-Aufgaben, multimodale Anwendungen, internationale Einsätze mit vielen Sprachen. Bei GPQA Diamond führt kein anderes Modell in unserer Übersicht. VRAM: 242 GB in Q4, für 4-Karten-Systeme.


gpt-oss-120b — Starker Einstieg auf einer Karte

OpenAIs erstes Open-Source-Modell bringt 117 Milliarden Parameter bei nur 5,1 Milliarden aktiven durch eine sehr sparsame MoE-Architektur. Das Besondere: Es passt in Q4 auf 63 GB, also auf eine einzelne 96-GB-Karte mit ausreichend Puffer für den KV-Cache. Lizenz: Apache 2.0.

Benchmark Score
SWE-bench Verified 62,0%
GPQA Diamond 80,1%
HumanEval 90,2%
MATH 97,6%
LiveCodeBench 82,7%

Geeignet für: Coding-Assistenten, Reasoning-Aufgaben, interne Wissensassistenten für kleinere Teams. Wer einen ersten produktiven Einstieg mit einem Einzelserver will, ohne sofort in mehrkardige Systeme zu investieren, kommt mit gpt-oss-120b sehr weit. Besonders stark bei MATH und LiveCodeBench für seine Größe.

Welches Modell für welchen Use Case

Statt einem einzigen "besten" Modell zu empfehlen, ist die ehrlichere Antwort: Es hängt vom Einsatzzweck ab.

Use Case Empfehlung Grund
Coding-Agent, Bug-Fixing MiniMax-M2.5 Höchster SWE-bench-Wert
Autonome Agenten-Pipelines Kimi K2.5 MLA, Vision, Agent-Swarm
Office-Automatisierung MiniMax-M2.5 Deutsch, 200K Kontext, 100+ TPS
Dokumentenanalyse lang MiniMax-M2.5 oder GLM-5 Kontextfenster, SWE-bench
Mathematik, STEM Qwen3.5-397B Höchstes GPQA Diamond
Coding + Mathe kombiniert DeepSeek V3.2 MATH 97%, LiveCodeBench 83%
Einstieg, Einzelkarte gpt-oss-120b Passt in 96 GB, Apache 2.0
Viele Nutzer, langer Kontext Kimi K2.5 / DeepSeek V3.2 MLA = kleiner KV-Cache

Bei der letzten Zeile lohnt sich ein Hinweis: Wer viele gleichzeitige Nutzer mit langen Konversationsverläufen bedient, sollte den KV-Cache pro Token als Entscheidungskriterium einbeziehen. Kimi K2.5 und DeepSeek V3.2 liegen bei 31 KB pro Token durch MLA-Kompression. GLM-5 liegt bei 1.248 KB. Bei 20 Nutzern und 32.000 Token Kontext macht das den Unterschied zwischen 19 GB und über 760 GB KV-Cache — also zwischen einer und einer unmöglichen Konfiguration auf einem normalen System.

Was Benchmarks nicht zeigen

Benchmark-Scores sind Ausgangspunkt, nicht Entscheidung. Zwei Dinge die kein Leaderboard abbildet:

Verhalten bei firmenspezifischen Anfragen. Ein Modell das GPQA Diamond mit 88 Prozent besteht, kann bei eurer internen Fachsprache, euren Prozessen und euren Dokumenten trotzdem schwächere Ergebnisse liefern als ein Modell das 10 Prozentpunkte niedriger liegt. Fine-Tuning auf eigenen Daten löst das.

Inference-Geschwindigkeit unter Last. SWE-bench sagt nichts darüber wie das Modell bei 20 gleichzeitigen Usern reagiert. Das hängt von der Architektur (MoE vs Dense), der Inference-Engine (vLLM, SGLang) und der Hardware ab. Ein Modell das auf dem Papier besser ist, kann in der Praxis langsamer sein wenn es nicht für parallele Inferenz optimiert wurde.

Wer ernsthaft evaluiert, sollte ein Modell mit echten eigenen Daten und echten Nutzungsszenarien testen — bevor die Infrastruktur steht. Wir helfen dabei gerne im Rahmen einer kostenlosen Erstberatung.

Alle Modelle auf einen Blick

Die vollständige Übersicht mit interaktivem Benchmark-Vergleich, Konfigurationsrechner und VRAM-Schätzung findet sich auf unserer Modellseite. Dort lässt sich für jedes Modell direkt berechnen wie viele GPUs für wie viele gleichzeitige Nutzer bei welcher Kontextlänge benötigt werden.

Für eine konkrete Empfehlung zu eurem Use Case schreibt uns unter office@inhausi.at. Das Erstgespräch ist kostenlos.

← Alle Artikel