Google lanceert Gemma 4 met een breed licentiemodel

vrijdag, 3 april 2026 (09:40) - Techzine

In dit artikel:

Google DeepMind heeft Gemma 4 vrijgegeven: vier open-weight AI-modellen onder een Apache 2.0‑licentie, bedoeld om zowel op kleine edge‑apparaten als op krachtigere workstations te draaien. De serie bestaat uit Effective 2B (E2B), Effective 4B (E4B), een 26B Mixture‑of‑Experts (MoE) en een 31B Dense‑model. Volgens benchmarklijsten staat de 31B Dense nu derde onder open modellen in de Arena AI‑tekstranglijst; de 26B MoE staat op plek zes en activeert bij inferentie slechts 3,8 miljard parameters, wat lage latentie bevordert.

De twee kleine modellen zijn geoptimaliseerd voor volledig offline gebruik op smartphones, Raspberry Pi’s en Nvidia Jetson Orin Nano’s, met native audio‑input en contextvensters tot 128k tokens. De 26B‑ en 31B‑varianten ondersteunen tot 256k tokens en passen op één 80GB NVIDIA H100 GPU, waardoor ze geschikt zijn voor desktop‑ en serveromgevingen. Google zegt dat beide grotere modellen op veel taken beter presteren dan veel grotere modellen met tot twintig keer meer parameters, al zijn er ook concurrenten (zoals Qwen 3.5 27B) die op sommige punten vergelijkbaar scoren.

Belangrijk is de Apache 2.0‑licentie: developers mogen de modellen gebruiken, aanpassen en verspreiden met naamsvermelding, wat striktere voorwaarden van eerdere Gemma‑releases doorbreekt. Gemma‑modellen zijn vanaf dag één compatibel met tools als vLLM, llama.cpp, Ollama, NVIDIA NIM en LM Studio. Sinds de eerste open uitgave in februari 2024 zijn Gemma‑modellen ruim 400 miljoen keer gedownload en zijn er tienduizenden communityvarianten ontstaan. De nieuwe modellen zijn beschikbaar via Google AI Studio, Kaggle, Ollama en Hugging Face; productie‑implementatie kan via Google Cloud (Vertex AI, Cloud Run).