Главное Авторские колонки Вакансии Вопросы
78 0 В избр. Сохранено
Авторизуйтесь
Вход с паролем

Amazon будет использовать гигантские чипы Cerebras для запуска ИИ-моделей

Amazon объявила о сотрудничестве со стартапом Cerebras Systems, в рамках которого в облачной инфраструктуре Amazon Web Services (AWS) начнут использоваться необычно крупные специализированные процессоры для искусственного интеллекта.
Мнение автора может не совпадать с мнением редакции

Эти чипы предназначены для ускорения работы современных нейросетей и генеративных моделей, включая чат-боты, инструменты программирования и другие ИИ-сервисы.

Речь идёт о процессорах Cerebras, построенных на архитектуре Wafer-Scale Engine — это огромный чип, созданный практически из целой кремниевой пластины. Такая конструкция содержит сотни тысяч вычислительных ядер и триллионы транзисторов, благодаря чему он способен обрабатывать задачи машинного обучения значительно быстрее традиционных GPU.

В рамках сотрудничества оборудование Cerebras будет установлено в дата-центрах AWS и станет частью облачных сервисов Amazon. Новая инфраструктура объединит два типа ускорителей: собственные чипы Amazon Trainium и системы Cerebras. Каждая из этих платформ будет выполнять разные этапы работы нейросетей.

Например, процессоры Trainium будут отвечать за начальную стадию обработки запроса — так называемый этап prefill, когда система анализирует входные данные пользователя. После этого вычисления передаются чипам Cerebras, которые занимаются фазой decode — генерацией ответа модели. Такой разделённый подход должен заметно ускорить работу больших языковых моделей и повысить эффективность обработки данных.

Новая архитектура будет использоваться в сервисе Amazon Bedrock — платформе для запуска генеративных ИИ-моделей в облаке. Компании рассчитывают, что благодаря комбинации двух типов ускорителей удастся добиться значительно более высокой скорости вывода результатов, особенно при работе с крупными нейросетями.

По заявлениям Cerebras, их технология может выполнять некоторые задачи инференса — то есть генерации ответа нейросетью — в десятки раз быстрее традиционных графических процессоров. В отдельных сценариях производительность может превышать решения на базе GPU примерно в 25 раз.

Сервис с новыми чипами планируется постепенно запускать для клиентов AWS во второй половине 2026 года. Финансовые условия сделки между компаниями не раскрываются.

Партнёрство Amazon и Cerebras рассматривается как часть более широкой технологической гонки в сфере ИИ-чипов. Крупные технологические компании активно инвестируют в собственные ускорители для машинного обучения, пытаясь снизить зависимость от традиционных GPU и увеличить производительность своих облачных платформ.

0
В избр. Сохранено
Авторизуйтесь
Вход с паролем
Комментарии
Выбрать файл
Блог проекта
Расскажите историю о создании или развитии проекта, поиске команды, проблемах и решениях
Написать
Личный блог
Продвигайте свои услуги или личный бренд через интересные кейсы и статьи
Написать

Spark использует cookie-файлы. С их помощью мы улучшаем работу нашего сайта и ваше взаимодействие с ним.