Усиление гонки AI-чипов: Nvidia против Google и Broadcom

Nvidia долго доминировала благодаря универсальным GPU, которые стали стандартом для обучения нейросетей. Но сейчас компании всё чаще переходят на специализированные решения. Google развивает TPU — чипы, заточенные под операции, используемые в ИИ. Они эффективнее по энергии и дешевле в обучении моделей, поэтому Google активно использует их внутри своих сервисов и предлагает через облако как альтернативу GPU.
TPU постепенно выходят за пределы внутреннего использования Google и становятся частью Google Cloud, создавая конкуренцию экосистеме Nvidia и её CUDA-платформе, на которой держится большая часть индустрии.
Broadcom в этой системе играет роль поставщика кастомной инфраструктуры: разрабатывает специализированные чипы под конкретные задачи, сетевые решения для дата-центров и компоненты для крупных AI-систем. По сути, он помогает строить альтернативу классическим GPU-фермам.
Несмотря на это, Nvidia остаётся лидером благодаря своей программной экосистеме CUDA и огромной базе разработчиков, что делает переход на другие решения сложным и дорогим.
Главный сдвиг сейчас в том, что компании начинают использовать смешанную инфраструктуру — GPU, TPU и кастомные чипы одновременно, чтобы снизить стоимость и повысить эффективность обучения моделей.
В итоге рынок движется не к замене Nvidia, а к многополярной системе, где конкурируют разные архитектуры и экосистемы вычислений для ИИ.