Micro Dispositivos Avançados (AMD) revelaram na quinta -feira (12) novos detalhes sobre seus chips de AI da próxima geração, a série Instinct Mi400, que será lançada no próximo ano.
Os chips Mi400 podem ser montados em um rack de servidor completo chamado Helios, disse a AMD, permitindo que milhares de chips sejam interconectados para funcionar como um único sistema de “escala de rack”.
“Pela primeira vez, projetamos cada parte do rack como um sistema unificado”, disse Lisa Su em um evento de lançamento em San Jose, Califórnia, na quinta -feira.
O CEO da Openai, Sam Altman, subiu ao palco com a SU e disse que sua empresa usará chips AMD.
“Quando você começou a me contar sobre as especificações, pensei, não é possível, parece totalmente louco”, disse Altman. “Vai ser incrível.”
A configuração da escala da AMD Rack fará com que os chips pareçam um único sistema para o usuário, o que é importante para a maioria dos clientes de inteligência artificial, como provedores de nuvem e empresas que desenvolvem grandes modelos de idiomas. Esses clientes desejam clusters “Hyperesca” de computadores de IA que possam ocupar data centers inteiros e usar enormes quantidades de energia.
“Pense em Helios como um rack que realmente atua como um único motor de computador gigantesco”, disse Su, comparando -o com os racks Vera Rubin da Nvidia, que devem ser lançados no próximo ano.
Competição com a Nvidia
A tecnologia de escala de rack da AMD também permite que seus chips mais recentes competam com os chips Blackwell da Nvidia, que já estão em 72 unidades de processamento gráfico conectado. A NVIDIA é a principal e única rival da AMD nas GPUs dos principais data centers para desenvolver e implantar aplicativos de IA.
O Openai – um notável cliente da NVIDIA – deu feedback da AMD sobre seu script MI400, disse a empresa de chips. Com os chips e chips do MI400 deste ano, a AMD planeja competir com a NVIDIA em preço, com um executivo da empresa dizendo a repórteres na quarta -feira (11) que os chips custarão menos para operar graças ao menor consumo de energia e que a AMD está oferecendo preços “agressivos” para quebrar a Nvidia.
Até agora, a NVIDIA dominou o mercado de GPUs para data centers, em parte porque foi a primeira empresa a desenvolver o tipo de software necessário para que os desenvolvedores de IA aproveitem os chips originalmente projetados para exibir gráficos de jogos em 3D. Na última década, antes do boom da IA, a AMD se concentrou em competir contra a Intel nas CPUs por servidores.
A SU disse que o MI355X da AMD pode superar os chips Blackwell da Nvidia, embora a Nvidia use seu software “proprietário”.
“Isso mostra que temos um hardware muito forte, o que sempre soubemos, mas também mostra que as estruturas de software abertas fizeram um tremendo progresso”, disse SU.
As ações da AMD são estáveis até agora em 2025, sinalizando que Wall Street ainda não vê a empresa como uma grande ameaça ao domínio da Nvidia.
Leia mais:
Os serviços do Google Cloud e Hosting sofrem instabilidade – ChatGPT, Shopify e outros foram afetados
A Micron Technology investirá US $ 200 bilhões na indústria doméstica de chips nos EUA
Estratégia de mercado e expectativas futuras
Andrew Dieckmann, gerente geral da AMD de GPUs de data centers, disse na quarta -feira que os chips da AMD AI custariam menos para operar e comprar.
“Em geral, existe um custo significativo do custo de aquisição que adicionamos à nossa vantagem competitiva de desempenho, resultando em economias significativas de dois dígitos em uma porcentagem”, disse Dieckmann.
Nos próximos anos, grandes empresas e países em nuvem estão prestes a gastar centenas de bilhões de dólares para criar novos clusters de data centers em torno das GPUs para acelerar o desenvolvimento de modelos de IA de corte de corte. Isso inclui US $ 300 bilhões (aproximadamente R $ 1,66 trilhão na cotação atual) este ano apenas em despesas de capital planejadas por grandes empresas de tecnologia.
A AMD espera que o mercado total de chips de IA exceda US $ 500 bilhões (R $ 2,27 trilhões) até 2028, embora não tenha dito quanto desse mercado pode ganhar – a NVIDIA atualmente possui mais de 90% do mercado, segundo as estimativas dos analistas.
Ambas as empresas se comprometeram a lançar novos chips de IA anualmente, em vez de bienalmente, enfatizando como a concorrência feroz se tornou e o quão importante é cortar chips de IA para empresas como Microsoft, Oracle e Amazon.
Aquisições e investimentos estratégicos
A AMD comprou ou investiu em 25 empresas de IA no ano passado, disse a SU, incluindo a compra da ZT Systems no início deste ano, um fabricante de servidores que desenvolveu a Tecnologia que a AMD precisava para construir seus sistemas no tamanho do rack.
“Esses sistemas de IA estão se tornando super complexos e as soluções completas de bateria são realmente críticas”, disse SU.
Atualmente, o Chip AI mais avançado da AMD que está sendo instalado pelos fornecedores de nuvem é o MI355X do Instinct, que a empresa disse que começou a ser enviada para produção no mês passado. A AMD declarou que estará disponível para aluguel de fornecedores de nuvem do terceiro trimestre.
As empresas que constroem grandes clusters de dados de IA desejam alternativas à NVIDIA, não apenas para reduzir custos e oferecer flexibilidade, mas também para atender a uma necessidade crescente de “inferência”, ou seja, o poder de computação para implantar um aplicativo Chatbot ou AI generativo que pode usar muito mais poder de processamento do que os aplicativos de servidor tradicionais.
“O que realmente mudou é que a demanda por inferência cresceu significativamente”, disse SU.
Autoridades da AMD disseram na quinta -feira que acreditam que seus novos chips são superiores à inferência em comparação com os da NVIDIA. Isso ocorre porque os chips AMD estão equipados com memória de alta velocidade, permitindo que modelos maiores sejam executados em uma única GPU.
O MI355X tem sete vezes mais poder de computação do que seu antecessor, disse a AMD. Esses chips poderão competir com os chips B100 e B200 da NVIDIA, que foram enviados desde o final do ano passado.
A AMD disse que seus chips instintos foram adotados por sete dos 10 maiores clientes de IA, incluindo Openai, Tesla, Xai e Coher.
A Oracle planeja oferecer clusters com mais de 131.000 chips Mi355x a seus clientes, disse a AMD.
Os representantes do objetivo disseram na quinta-feira que estavam usando os clusters de CPUs e GPUs da AMD para executar inferências para o seu modelo de lhama e planejam comprar servidores de próxima geração da AMD.
Um representante da Microsoft disse que usa chips AMD para servir seus recursos de AI Copilot.
Competindo no preço
A AMD se recusou a dizer o quanto o custo de seus chips-não vende chips por conta própria, e os usuários finais geralmente os compram por meio de uma empresa de hardware como Dell ou Super Micro Compter, mas a empresa está planejando que os chips Mi400 computem o preço.
A empresa de Santa Clara está combinando suas GPUs com suas CPUs e chips de rede de sua aquisição em 2022, pensando em construir seus racks Helios. Isso significa que uma maior adoção de seus chips de IA também deve beneficiar o restante dos negócios da AMD. Ele também está usando uma tecnologia de rede de código aberto para integrar de perto seus sistemas de rack, chamados UALink, em comparação com o proprietário da NVLink da NVIDIA.
A AMD afirma que seu MI355x pode oferecer 40% mais tokens – uma medida de IA – por dólar do que os chips da NVIDIA, porque seus chips consomem menos energia que o rival.
Os GPUs de data centers podem custar dezenas de milhares de dólares por chip, e as empresas de nuvem geralmente as compram em grandes quantidades.
O negócio da AMD AI Chips ainda é muito menor que o de Nvidia. Ela disse que tinha US $ 5 bilhões (US $ 27,75 bilhões) em vendas de IA em seu ano fiscal de 2024, mas os analistas do JP Morgan esperam crescimento de 60% na categoria este ano.
–
Canal 562 CLAROTV+ | Canal 562 céu | Canal 592 Vivo | Canal 187 Oi | Operadores regionais
Sinal aberto da TV: canal parabólico 562
Online: www.timesbrasil.com.br | YouTube
Canais rápidos: Samsung TV Plus, Canais LG, Canais TCL, Plutão TV, Roku, Soul TV, Zapping | Novos streamings
Este conteúdo foi fornecido por CNBC International e a responsabilidade exclusiva pela tradução portuguesa é do Times Brasil.