Amazon Web Services, Inc. (AWS) y NVIDIA anunciaron la ampliación de su colaboración estratégica continua para ofrecer infraestructura, sóftwer y los servicios más avanzados a los clientes que trabajan en el área de la inteligencia artificial generativa.
AWS ha estado trabajando para destacarse como proveedor de nube para soluciones relacionadas con la IA, mientras que los chips de NVIDIA se han utilizado ampliamente en el desarrollo de servicios de IA generados. Esto incluye el trabajo para desarrollar y diseñar la supercomputadora de IA impulsada por GPU más rápida del mundo y la implementación de sóftwer para acelerar el desarrollo de tecnologías de generación de IA.
“AWS y NVIDIA han colaborado durante más de 13 años, comenzando con la primera instancia de GPU en la nube del mundo. Hoy, ofrecemos la gama más amplia de soluciones de GPU para cargas de trabajo que incluyen gráficos, juegos, alta informática de rendimiento, aprendizaje automático y, ahora, IA generativa. Seguimos innovando con NVIDIA para hacer de AWS el mejor lugar para ejecutar GPU, combinando los Superchips NVIDIA Grace Hopper de próxima generación con la poderosa red EFA de AWS, el clustering a hiperescala de EC2 UltraClusters y las capacidades avanzadas de virtualización de Nitro” comentó Adam Selipsky, director ejecutivo de AWS.
Por su parte, Jensen Huang, fundador y director ejecutivo de NVIDIA, expresó: “La IA generativa está transformando las cargas de trabajo en la nube y colocando la computación acelerada en la base de la generación de contenidos diversos. Impulsados por una misión común de ofrecer IA generativa de última generación y rentable a cada cliente, NVIDIA y AWS están colaborando en toda la pila informática, que abarca la infraestructura de IA, bibliotecas de aceleración, modelos básicos y servicios de IA generativa”.
La colaboración de ambas empresas destaca que:
-AWS será el primer proveedor de la nube en llevar los superchips NVIDIA GH200 Grace Hopper con la nueva tecnología NVLink multinodo a la nube.
-NVIDIA y AWS colaborarán para alojar NVIDIA DGX Cloud, el entrenamiento de IA como servicio de NVIDIA, en AWS.
-NVIDIA y AWS están colaborando en el Proyecto Ceiba para diseñar la supercomputadora de IA impulsada por GPU más rápida del mundo: un sistema a escala con GH200 NVL32 e interconexión Amazon EFA, alojado por AWS para el propio equipo de investigación y desarrollo de NVIDIA.
-AWS presentará tres instancias Amazon EC2 adicionales: instancias P5e, impulsadas por GPU NVIDIA H200 Tensor Core, para cargas de trabajo de HPC e IA generativa de vanguardia y a gran escala; e instancias G6 y G6e, impulsadas por GPU NVIDIA L4 y GPU NVIDIA L40S, respectivamente, para un amplio conjunto de aplicaciones como ajuste fino de IA, inferencia, gráficos y cargas de trabajo de video.
-Además, NVIDIA anunció sóftwer en AWS para impulsar el desarrollo de IA generativa. El microservicio NVIDIA NeMo Retriever ofrece nuevas herramientas para crear chatbots y herramientas de resumen de alta precisión mediante la recuperación semántica acelerada.