Getty Images
Acessibilidade
Proprietária do Facebook, Instagram e WhatsApp, a Meta está testando seu primeiro chip interno para treinamento de sistemas de inteligência artificial, um marco importante à medida que busca reduzir a dependência de fornecedores externos como a Nvidia, disseram duas fontes à Reuters.
A maior empresa de mídia social do mundo iniciou uma pequena implantação do chip e planeja aumentar a produção para uso em larga escala se o teste for bem-sucedido, disseram as fontes.
O esforço para desenvolver chips internamente faz parte de um plano de longo prazo da Meta para reduzir seus enormes custos de infraestrutura, à medida que a empresa faz apostas altas em ferramentas de IA.
A Meta prevê despesas totais de US$114 bilhões a US$119 bilhões em 2025, incluindo até US$65 bilhões em despesas de capital, impulsionadas principalmente por gastos em infraestrutura de IA.
Uma das fontes disse que o novo chip de treinamento da Meta é um acelerador dedicado, o que significa que ele foi projetado para lidar apenas com tarefas específicas de IA. Isso pode torná-lo mais eficiente em termos de energia do que as unidades de processamento gráfico integradas (GPUs), geralmente usadas para cargas de trabalho de IA.
A Meta está trabalhando com o fabricante de chips TSMC, sediado em Taiwan, para produzir o chip, disse essa fonte.
A implantação do teste começou depois que a Meta concluiu seu primeiro “tape-out” — um marcador significativo de sucesso no trabalho de desenvolvimento de silício, que envolve o envio de um projeto inicial por uma fábrica de chips, disse a outra fonte.
Um tape-out típico custa dezenas de milhões de dólares e leva de três a seis meses para ser concluído, sem garantia de que o teste será bem-sucedido. Uma falha exigiria que a Meta diagnosticasse o problema e repetisse a etapa.
A Meta e a TSMC não quiseram comentar.
O chip é o mais recente da série Meta Training and Inference Accelerator (MTIA). O programa teve um começo instável e em um momento descartou um protótipo numa fase similar de desenvolvimento.
No ano passado, no entanto, a Meta começou a usar um chip MTIA para realizar inferência — o processo envolvido na execução de um sistema de IA enquanto os usuários interagem com ele — nos sistemas de recomendação que determinam qual conteúdo aparece nos feeds de notícias do Facebook e do Instagram.
Executivos da Meta disseram que querem começar a usar seus próprios chips até 2026 para treinamento, ou seja, para o processo intensivo de computação de alimentar o sistema de IA com grandes quantidades de dados para “ensiná-lo” a executar suas funções.
Assim como o chip de inferência, o objetivo do chip de treinamento é começar com sistemas de recomendação e depois passar para produtos de IA generativa, como o chatbot Meta AI, disseram os executivos.
“Estamos trabalhando em como faríamos o treinamento para sistemas de recomendação e, eventualmente, como pensaríamos sobre treinamento e inferência para IA generativa”, disse na semana passada o diretor de produtos da Meta, Chris Cox, na conferência de tecnologia, mídia e telecomunicações do Morgan Stanley.
Cox descreveu os esforços de desenvolvimento do chip da Meta como “uma espécie de situação de andar, engatinhar e correr” até agora, mas disse que os executivos consideraram o chip de inferência de primeira geração para recomendações um “grande sucesso”.
Apesar dos esforços, a empresa de mídia social continua sendo uma das maiores clientes da Nvidia, com um arsenal de GPUs para treinar seus modelos, incluindo a plataforma de desenvolvimento de código aberto Llama. As unidades também realizam inferência para mais de 3 bilhões de pessoas que usam seus aplicativos todos os dias.
O valor dessas GPUs foi questionado neste ano, à medida que pesquisadores de IA expressam cada vez mais dúvidas sobre quanto progresso pode ser feito ao se continuar a “ampliar” grandes modelos de linguagem adicionando cada vez mais dados e poder de computação.
Essas dúvidas foram reforçadas com o lançamento, no final de janeiro, de novos modelos de baixo custo da startup chinesa DeepSeek, que otimizam a eficiência computacional ao depender mais da inferência do que a maioria dos modelos tradicionais.