Meta представила обновлённые модели Llama 4: Scout, Maverick и анонсировала Llama 4 Behemoth

Эти модели являются мультимодальными системами ИИ, способными обрабатывать и интегрировать различные типы данных, включая текст, изображения, видео и аудио. Кроме того, Meta анонсировала предварительный просмотр модели Llama 4 Behemoth, описываемой как одна из самых мощных и интеллектуальных языковых моделей, предназначенная для обучения будущих моделей.
Llama 4 Scout представляет собой компактную модель, способную работать на одном GPU Nvidia H100, и обеспечивает контекстное окно в 10 миллионов токенов. Она превосходит несколько конкурентов, включая модели Google Gemma 3 и Mistral 3.1, по различным показателям. Llama 4 Maverick — более крупная модель, сравнимая по производительности с GPT-4o от OpenAI и DeepSeek-V3 в задачах кодирования и рассуждения, при этом использует меньше активных параметров.
Обе модели используют архитектуру «mixture of experts» (MoE), что позволяет оптимизировать использование вычислительных ресурсов. Несмотря на то, что модели позиционируются как открытые, лицензия Llama 4 накладывает ограничения на коммерческие организации с более чем 700 миллионами пользователей, что вызвало критику со стороны Open Source Initiative.
Модели Llama 4 теперь доступны на платформе Amazon Web Services через Amazon SageMaker JumpStart, с планами по предоставлению их в виде полностью управляемых серверless-моделей в Amazon Bedrock в ближайшем будущем. Они также интегрированы в ИИ-ассистента Meta, доступного на платформах WhatsApp, Messenger, Instagram и вебе. Более подробная информация о дальнейших разработках будет представлена на конференции LlamaCon, запланированной на 29