Gate News Nachrichten, am 3. April veröffentlicht Google das multimodale Modell Gemma 4. Gemma 4 kann zur Verarbeitung von Text- und Bildeingaben verwendet werden (kleine Modelle unterstützen Audioeingaben) sowie Textausgaben generieren. Diese Version enthält offene Gewichtsmodelle mit Vortraining und instruktionellem Feintuning. Das Kontextfenster von Gemma 4 kann maximal 256.000 Tokens aufnehmen und unterstützt über 140 Sprachen. Gemma 4 verwendet sowohl eine dichte Architektur als auch eine Architektur mit Mixture-of-Experts (MoE) und eignet sich für Aufgaben wie Textgenerierung, Kodierung und Inferenz. Diese Modelle gibt es in vier unterschiedlichen Größen: E2B, E4B, 26B A4B und 31B; sie lassen sich in verschiedenen Umgebungen bereitstellen, von Mobiltelefonen über Laptops bis hin zu Servern.