Inteligência Artificial

Anthropic avalia nova tecnologia de chips que pode acelerar IA em até 100x e reduzir custos em 90%

Anthropic negocia com startup britânica para criar chips próprios de IA. Tecnologia pode acelerar inferência em 100 vezes e reduzir custos em 10 vezes.
Imagem de: Anthropic avalia nova tecnologia de chips que pode acelerar IA em até 100x e reduzir custos em 90%

A Anthropic, criadora do Claude AI, estaria em conversas iniciais com uma startup do Reino Unido cuja tecnologia baseada em SRAM pode acelerar a inferência de IA em até 100 vezes e reduzir os custos em até 10 vezes.

Anthropic negocia com a Fractile, startup do Reino Unido focada em arquitetura de fusão para acelerar inferência de IA

Atualmente, a Anthropic usa chips de várias empresas, como NVIDIA, Google e Amazon. Essa combinação ajuda a manter sua infraestrutura de IA sem depender de um único fornecedor.

Com o aumento da demanda por processamento em IA, várias empresas do setor passaram a investir em chips próprios, feitos sob medida.

De acordo com uma reportagem recente do The Information, a Anthropic estaria em estágio inicial de negociações com a Fractile, uma startup do Reino Unido.

A empresa tem ganhado espaço por causa de uma nova tecnologia chamada Memory Compute Fusion Architecture. Essa arquitetura reduz a movimentação de dados para a memória DRAM, diminuindo a dependência de memória externa ao chip.

O processamento acontece dentro do próprio chip. Para isso, a empresa desenvolveu sua própria tecnologia de SRAM, semelhante às LPUs da NVIDIA, como a Groq 3 LPX. A aquisição da Groq pela NVIDIA ajudou a integrar essa tecnologia LPU ao ecossistema Vera Rubin.

NVIDIA Groq 3 LPX LPU
A LPU Groq apresenta SRAM dedicada para impulsionar os recursos de inferência de IA da futura plataforma Vera Rubin. (Fonte da imagem: NVIDIA)

Esses chips funcionam como aceleradores de inferência de IA, com grande quantidade de SRAM e largura de banda alta, tanto para expansão interna quanto entre sistemas.

A própria NVIDIA classifica a Groq 3 LPU como um acelerador de inferência. O chip tem 500 MB de SRAM, largura de banda de 150 TB/s na SRAM e 2,5 TB/s para comunicação entre sistemas.

Esses componentes fazem parte do rack Groq 3 LPX, que reúne 256 LPUs e 128 GB de SRAM, voltados para processamento com baixa latência.

A proposta da Fractile segue uma linha parecida, mas a empresa afirma que sua arquitetura pode alcançar até 100 vezes mais velocidade na inferência de IA, com custo até 10 vezes menor em comparação com as soluções da NVIDIA.

A equipe da Fractile inclui profissionais que já trabalharam em empresas como NVIDIA, Graphcore e Imagination Technologies.

Apesar dos números altos, a Fractile ainda não desenvolveu chips de teste. Essas conversas iniciais podem abrir caminho para a Anthropic avançar na criação de seus próprios chips.

A empresa ainda depende bastante de fornecedores externos, já que fechou um acordo de vários gigawatts com a Broadcom, e há relatos de que pode incluir a AMD em seu portfólio em breve.

Mais vistos da semana