Google DeepMind 6 квітня офіційно випустила Gemma 4 — це четверте покоління відкритих вагових моделей серії Gemma. Вийшло чотири версії; ліцензію змінено на Apache 2.0, а також додано вбудовану підтримку багатомодальних входів та агентних робочих процесів.
Чотири специфікації: від мобільних пристроїв до серверів — усе охоплено
31B щільна модель посідає третє місце серед відкритих моделей у текстовому рейтингу Arena AI; 26B змішаноекспертна модель — шосте. Google зазначає, що дві великі моделі в тестах-бенчмарках Arena AI навіть порівняно з іншими моделями, у яких параметрів у 20 разів більше, все одно мають переваги.
Ключові можливості: багатомодальність, аудіо, 140 мов
Усі чотири версії з рідною підтримкою багатомодальних входів для відео та зображень; вони охоплюють OCR і розуміння діаграм. Периферійні версії (E2B, E4B) додатково підтримують аудіовхід, придатний для сценаріїв розпізнавання мовлення.
Усі моделі підтримують виклики функцій (function calling), структурований вивід у форматі JSON, а також рідні системні інструкції для побудови агентних робочих процесів. Навчальні дані охоплюють понад 140 мов.
Ліцензію змінено з власної на Apache 2.0 — комерційне використання більш дружнє
Раніше серія Gemma використовувала власну ліцензію, яка обмежувала модифікацію та повторне поширення. Gemma 4 переходить на загальноприйняту в індустрії ліцензію Apache 2.0, що дозволяє комерційне використання, модифікацію та повторне поширення без потреби в окремих домовленостях із Google. Google зазначає, що це робить Gemma 4 більш придатною для корпоративних застосунків і розробників.
Чотири моделі вже повністю доступні для використання. Наразі Google не оприлюднила графік інтеграції периферійних моделей у Android або продукти споживчого обладнання.
Ця стаття Google випустила Gemma 4: чотири специфікації, ліцензія Apache 2.0, від мобільних телефонів до серверів — вперше з’явилася в News ABMedia.