linux-BR.org

Notícias de software livre e tecnologias

Em terceiro lugar, como os dispositivos baseados em H100 usam memória HBM2E, HBM3 ou HBM3E, a Nvidia terá que obter pacotes de memória HBM suficientes de empresas como Micron, Samsung e SK Hynix.Enviaremos as últimas notícias e análises detalhadas de CPUs, GPUs, IA, hardware do fabricante e muito mais diretamente para sua caixa de entrada.E essa capacidade é atualmente compartilhada entre CPU/GPU AMD, Apple, Nvidia e outras empresas.Em segundo lugar, o GH100 depende da memória HBM2E ou HBM3 e usa o pacote CoWoS da TSMC, então a Nvidia também precisa garantir o fornecimento nesta frente.Mas aumentar a oferta de GPUs de computação Nvidia H100, plataforma de supercomputação GH200 Grace Hopper e produtos baseados nelas não será fácil.

Fonte: https://www.tomshardware.com/news/nvidia-to-reportedly-triple-output-of-compute-gpus-in-2024-up-to-2-million-h100s