DeepSeek komt met V4 AI-model met sterke codefuncties in februari

vrijdag, 9 januari 2026 (16:55) - Techzine

In dit artikel:

Chinese AI-startup DeepSeek brengt medio februari versie V4 uit, een nieuw model dat volgens interne tests beter zou presteren bij codeertaken dan concurrenten zoals Anthropic’s Claude en OpenAI’s GPT-modellen. V4 levert vooral vooruitgang bij het verwerken van extreem lange codeprompts, wat handig is voor ontwikkelaars van complexe software en voortbouwt op de sparse-attentiontechniek uit V3.2-Exp.

Het model gebruikt een Mixture of Experts-architectuur (MoE), waarbij alleen een deel van de parameters per prompt wordt geactiveerd, wat energie-efficiënter is dan klassieke dense modellen; V3 beschikte al over 671 miljard parameters met deze benadering. DeepSeek trok internationaal aandacht door zeer lage trainingskosten (R1 zou zo’n 294.000 dollar hebben gekost), maar staat ook onder toenemend toezicht en wordt in enkele landen onderzocht op security- en privacypraktijken. De lancering van V4 zal duidelijk maken of het bedrijf zijn positie tegenover gevestigde spelers kan versterken.