DeepSeek V4: Das Open-Source-Modell mit einer Billion Parametern
Zurück zum BlogKI-News

DeepSeek V4: Das Open-Source-Modell mit einer Billion Parametern

01. April 20264 Min. Lesezeit

Das chinesische KI-Unternehmen DeepSeek sorgt erneut für Aufsehen: Mit DeepSeek V4 erscheint ein Sprachmodell, das in puncto Leistung mit den besten proprietären Modellen mithalten soll – und trotzdem als Open Source unter der Apache-2.0-Lizenz veröffentlicht wird. Für Unternehmen, die KI nutzen wollen, ohne sich an einen einzelnen Anbieter zu binden, ist das eine relevante Entwicklung.

Was ist DeepSeek V4?

DeepSeek V4 ist ein sogenanntes Mixture-of-Experts-Modell (MoE) mit rund einer Billion Parametern. Das klingt gewaltig – in der Praxis werden pro Anfrage aber nur etwa 37 Milliarden Parameter aktiviert. Das macht das Modell deutlich effizienter als klassische Modelle, bei denen immer alle Parameter arbeiten.

Die wichtigste Neuerung gegenüber dem Vorgänger V3: DeepSeek V4 ist nativ multimodal. Das bedeutet, es wurde von Grund auf mit Text-, Bild- und Videodaten trainiert und kann alle drei Formate verarbeiten und erzeugen. Bisherige Modelle wie V3 waren reine Textmodelle, bei denen visuelle Fähigkeiten nachträglich angebaut wurden.

Die wichtigsten Neuerungen im Überblick

Architektur und Leistung

  • 1 Billion Parameter insgesamt, davon ~37 Milliarden aktiv pro Token
  • 1 Million Token Kontextfenster – das entspricht mehreren hundert Seiten Text auf einmal
  • Engram Conditional Memory für ein verbessertes Langzeitgedächtnis über längere Gespräche hinweg
  • Laut internen Benchmarks: 81 % auf SWE-bench Verified (Coding-Benchmark), gegenüber 69 % beim Vorgänger V3

Native Multimodalität

  • Text, Bild und Video werden in einem einzigen Modell verarbeitet
  • Keine separaten Module nötig – alles läuft in einer Architektur
  • Vergleichbar mit dem Ansatz von Googles Gemini und OpenAIs GPT-5

Open Source und Preise

  • Veröffentlichung unter Apache 2.0 – das bedeutet: kommerziell nutzbar, modifizierbar, ohne Copyleft-Pflichten
  • API-Preis: 0,30 USD pro Million Input-Tokens und 0,50 USD pro Million Output-Tokens
  • Bei gemeinsamen Präfixen (Caching): nur 0,03 USD pro Million Tokens – 90 % günstiger
  • Zum Vergleich: GPT-4.1 kostet über Azure etwa 2 USD pro Million Input-Tokens

Hardware-Unabhängigkeit

  • Optimiert für Huawei Ascend- und Cambricon-Chips, also chinesische Hardware
  • Zeigt, dass Frontier-KI-Modelle auch ohne Nvidia-GPUs trainiert werden können
  • Für europäische Unternehmen vor allem ein Signal: Die Abhängigkeit von einem einzelnen Chip-Hersteller ist nicht zwingend

Was bedeutet das für dein Unternehmen?

Auf den ersten Blick ist DeepSeek V4 beeindruckend – aber was bringt es dir im Arbeitsalltag? Hier die wichtigsten Szenarien:

  • Kostensenkung bei KI-Nutzung: Wer KI über APIs einsetzt, kann mit DeepSeek V4 seine Kosten drastisch reduzieren. Bei 0,30 USD pro Million Tokens ist das Modell bis zu 6x günstiger als vergleichbare proprietäre Angebote.
  • Multimodale Workflows: Wenn du regelmäßig mit Text und Bildern arbeitest – etwa im Marketing oder E-Commerce – eröffnet ein nativ multimodales Modell neue Möglichkeiten, ohne zwischen verschiedenen Tools wechseln zu müssen.
  • Mehr Auswahl, weniger Abhängigkeit: Open Source bedeutet, dass du das Modell auch lokal betreiben oder bei einem europäischen Cloud-Anbieter hosten kannst. Das ist besonders für Unternehmen mit strengen Datenschutzanforderungen interessant.
  • Coding-Unterstützung: Mit 81 % auf SWE-bench Verified liegt DeepSeek V4 auf dem Niveau der besten proprietären Modelle – relevant für Entwicklerteams in KMU und Agenturen.

Gut zu wissen: Bei ConRat AI nutzt du bereits DeepSeek R1 als eines von sechs KI-Modellen im KI-Chat. Sobald DeepSeek V4 über Azure verfügbar ist, prüfen wir eine Integration – damit du auch das neueste DeepSeek-Modell direkt in ConRat AI nutzen kannst. Alle Modelle laufen DSGVO-konform über EU-Server.

Vorsicht bei den Benchmark-Zahlen

Ein wichtiger Hinweis: Die beeindruckenden Benchmark-Ergebnisse von DeepSeek V4 stammen bisher aus internen Tests. Unabhängige Drittanbieter-Evaluierungen stehen noch aus. Die KI-Branche hat in der Vergangenheit wiederholt erlebt, dass interne Benchmarks und reale Performance auseinanderklaffen können.

Auch das Thema Datenschutz verdient Aufmerksamkeit: DeepSeek ist ein chinesisches Unternehmen. Wer das Modell über die DeepSeek-eigene API nutzt, schickt seine Daten nach China. Für deutsche Unternehmen mit sensiblen Daten ist das keine Option. Die Alternative: Das Modell lokal hosten oder über einen europäischen Provider wie Microsoft Azure nutzen, wenn es dort verfügbar wird.

Unser Fazit

DeepSeek V4 zeigt eindrucksvoll, dass Open-Source-Modelle den proprietären Anbietern zunehmend ebenbürtig werden – und das zu einem Bruchteil der Kosten. Für KMU und Selbstständige, die KI produktiv einsetzen wollen, ist das eine gute Nachricht: Mehr Wettbewerb bedeutet bessere Modelle und niedrigere Preise. Allerdings solltest du die Benchmark-Versprechen mit Vorsicht genießen und beim Datenschutz genau hinschauen, bevor du umsteigst.

Quellen:

DeepSeekOpen SourceKI-ModelleMultimodal
Teilen:LinkedInX / Twitter
Kostenloser Newsletter

KI-Tipps direkt in dein Postfach

Erhalte wöchentlich die besten KI-Tipps, Tools und Strategien für dein Unternehmen. Kostenlos und jederzeit kündbar.

DSGVO-konform mit Double-Opt-In. Kein Spam, jederzeit abmeldbar.