Amazon будет использовать гигантские чипы Cerebras для запуска ИИ-моделей

Эти чипы предназначены для ускорения работы современных нейросетей и генеративных моделей, включая чат-боты, инструменты программирования и другие ИИ-сервисы.
Речь идёт о процессорах Cerebras, построенных на архитектуре Wafer-Scale Engine — это огромный чип, созданный практически из целой кремниевой пластины. Такая конструкция содержит сотни тысяч вычислительных ядер и триллионы транзисторов, благодаря чему он способен обрабатывать задачи машинного обучения значительно быстрее традиционных GPU.
В рамках сотрудничества оборудование Cerebras будет установлено в дата-центрах AWS и станет частью облачных сервисов Amazon. Новая инфраструктура объединит два типа ускорителей: собственные чипы Amazon Trainium и системы Cerebras. Каждая из этих платформ будет выполнять разные этапы работы нейросетей.
Например, процессоры Trainium будут отвечать за начальную стадию обработки запроса — так называемый этап prefill, когда система анализирует входные данные пользователя. После этого вычисления передаются чипам Cerebras, которые занимаются фазой decode — генерацией ответа модели. Такой разделённый подход должен заметно ускорить работу больших языковых моделей и повысить эффективность обработки данных.
Новая архитектура будет использоваться в сервисе Amazon Bedrock — платформе для запуска генеративных ИИ-моделей в облаке. Компании рассчитывают, что благодаря комбинации двух типов ускорителей удастся добиться значительно более высокой скорости вывода результатов, особенно при работе с крупными нейросетями.
По заявлениям Cerebras, их технология может выполнять некоторые задачи инференса — то есть генерации ответа нейросетью — в десятки раз быстрее традиционных графических процессоров. В отдельных сценариях производительность может превышать решения на базе GPU примерно в 25 раз.
Сервис с новыми чипами планируется постепенно запускать для клиентов AWS во второй половине 2026 года. Финансовые условия сделки между компаниями не раскрываются.
Партнёрство Amazon и Cerebras рассматривается как часть более широкой технологической гонки в сфере ИИ-чипов. Крупные технологические компании активно инвестируют в собственные ускорители для машинного обучения, пытаясь снизить зависимость от традиционных GPU и увеличить производительность своих облачных платформ.