Ver traducción automática
Esta es una traducción automática. Para ver el texto original en inglés haga clic aquí
#Tendencias de productos
{{{sourceTextContent.title}}}
Las GPUs y los procesadores Arm de Nvidia se casan en un nuevo diseño de referencia de servidor
{{{sourceTextContent.subTitle}}}
Las GPUs Nvidia y los procesadores basados en Arm trabajarán juntos en un nuevo diseño de referencia de bloques de hardware y software que las empresas pueden construir en servidores de alto rendimiento para cloud, edge, AI, almacenamiento y supercomputación.
{{{sourceTextContent.description}}}
El CEO de Nvidia, Jensen Huang, anunció el concepto en la conferencia Supercomputing 19 en Denver el lunes junto con varios socios tecnológicos como Arm, Ampere, Fujitsu y Marvell. Cray y HPE, dos de los primeros proveedores de servidores basados en Arm, también colaboraron.
"La incorporación de las GPUs Nvidia abre las puertas a los innovadores para crear sistemas que permitan el crecimiento de aplicaciones que van desde la nube a la supercomputación a gran escala y más allá", afirmó Huang.
Nvidia anunció en junio que su software CUDA-X funcionaría con diseños Arm, y ahora Nvidia está poniendo a disposición su kit de desarrollo de software compatible con Arm de librerías CUDA-X y herramientas de desarrollo para la informática acelerada.
"Las GPUs Nvidia se han convertido prácticamente en aceleradores estándar para la IA y el cálculo de alto rendimiento, por lo que para Nvidia es un paso natural adoptar a los principales proveedores de Arm", afirma Karl Fruend, analista de Moor Insights & Strategy. El paso a Arm también es digno de mención por el lento crecimiento reciente de Arm en HPC "después de años de decepcionantes resultados y adopción", añadió.
Los socios de Arm son capaces de construir servidores con un rendimiento sólido y características tales como mayor memoria y ancho de banda de E/S, agregó.
Por ejemplo, Marvell anunció el lunes que las GPUs Nvidia son compatibles con la familia de servidores ThunderX Arm. El ThunderX2 es el último procesador para servidores basado en Armv8-A de 64 bits de Marvell, que se combina con las GPUs Nvidia.
En otro lugar de la conferencia, Intel anunció un código de GPU a gran escala denominado Ponte Vecchio que se utilizará en el superordenador Aurora del Argonne National Lab.
También en la conferencia, Nvidia presentó el software Magnum IO para ayudar a los científicos e investigadores a procesar grandes cantidades de datos en minutos en lugar de horas. Ofrece un procesamiento de datos hasta 20 veces más rápido para nodos multiservidor y multi-GPU, basado en puntos de referencia. Magnum IO fue desarrollado con DataDirect Networks, Excelero, IBM, Mellanox y WekaIO.
Además, Nvidia anunció un superordenador escalable para la nube de Microsoft Azure que se acelera en la GPU. La nueva instancia en nube NDv2 de Azure ejecutará las GPUs Nvidia V100 Tensor Core, interconectadas en una única red Mellanox InifiBand. Los clientes podrán ejecutar un superordenador AI completo bajo demanda desde un ordenador de sobremesa.
El precio de Microsoft es de 22 dólares por hora para una de las ocho GPUs Nvidia V100 en la nube NDv2 y se puede ampliar.