Nvidia anuncia nova configuração de chips para acelerar aplicativos de IA

Nova versão do "Grace Hopper Superchip" aumenta a largura de banda de memória, o que dará ao microprocessador capacidade de executar modelos de IA maiores
Foto: Ann Wang/Reuters

Por Max A.Cherney/Reuters

Nvidia anunciou nesta terça-feira (8) uma nova configuração para seus chips avançados de inteligência artificial (IA), projetados para acelerar os aplicativos de IA generativa.

A nova versão do “Grace Hopper Superchip” aumenta a largura de banda de memória, o que dará ao microprocessador capacidade de executar modelos de IA maiores, de acordo com o vice-presidente de “hyperscale e HPC” da Nvidia, Ian Buck.

A configuração é otimizada para executar funções de inferência de IA que efetivamente alimentam aplicativos de IA generativa, como o ChatGPT.

O design do Grace Hopper une uma das unidades de processamento gráfico (GPU) H100 da empresa com um processador central projetado pela Nvidia.

“Ter uma memória maior permite que o modelo permaneça residente em uma única GPU e não precise de vários sistemas ou várias GPUs para ser executado”, disse Buck a jornalistas.

Os modelos que alimentam os aplicativos de IA generativa – capazes de produzir textos e imagens semelhantes aos produzidos por humanos – continuam a crescer em tamanho.

À medida que eles crescem, uma quantidade maior de memória é necessária para serem executados sem a necessidade de interconexão de chips e sistemas diferentes, o que prejudica o desempenho.

“A memória adicional simplesmente aumenta o desempenho da GPU”, disse Buck. A nova configuração, chamada GH200, estará disponível no segundo trimestre do próximo ano, disse o executivo.

A Nvidia planeja vender duas versões do chip: uma versão que inclui dois microprocessadores que os clientes podem integrar aos sistemas e um sistema de servidor completo que combina dois designs Grace Hopper.

Entrevistas

Rolar para cima