Nvidia ha presentado la nueva supercomputadora DGX GH200 AI, respaldada por su nuevo superchip Grace Hopper y dirigida al desarrollo y soporte de grandes modelos de lenguaje.
Nvidia presenta su nueva supercomputadora DGX GH200 AI. Su funcionamiento está sustentado por el superchip Grace Hopper, y su objetivo es el desarrollo y soporte de grandes modelos de lenguaje. Así explicaba el CEO de Nvidia, Jensen Huang, en una publicación de blog.
Las supercomputadoras de IA DGX GH200 integran las tecnologías de red y computación acelerada más avanzadas de Nvidia para expandir la frontera de la IA.
Grace Hopper
La supercomputadora, según Huang, combina el superchip GH200 Grace Hopper de la compañía y NVLink and Switch System de Nvidia. Este permite el desarrollo de grandes modelos de lenguaje para aplicaciones de lenguaje de IA generativa, sistemas de recomendación y el soporte de cargas de trabajo de análisis de datos.
El DGX GH200 de Nvidia utiliza la tecnología de interconexión NVLink para combinar 256 superchips Grace Hopper en una sola unidad de procesamiento de gráficos (GPU). El objetivo es extraer “1 exaflop de rendimiento y 144 terabytes de memoria compartida, casi 500 veces más memoria que la generación anterior NVIDIA DGX A100, que se presentó en 2020”.
El fabricante de chips emulará la estrategia que tomó con sus DGX Pods al hacer que la nueva supercomputadora esté disponible.
Por y para todos
A principios de marzo, Huang dijo que la compañía llegó a un acuerdo para que sus sistemas DGX estuvieran disponibles a través de múltiples proveedores de nube, en lugar de instalar el hardware necesario en las instalaciones. Actualmente, Microsoft, Meta y Google Cloud tienen acceso a la nueva supercomputadora.
Nvidia también dijo que el nuevo superchip Grace Hopper que alimenta la supercomputadora DGX GH200 AI está en modo de producción completa y se espera que los sistemas con el superchip estén disponibles a finales de este año.
Además, el nuevo superchip Grace Hopper se está utilizando para ayudar a SoftBank a diseñar centros de datos distribuidos de próxima generación que serán capaces de manejar aplicaciones generativas de IA y 6G.
Estos centros de datos se distribuirán en todo Japón, afirmaron las compañías en una publicación de blog. A principios de marzo, la compañía había lanzado nuevas unidades de procesamiento de datos (DPU) y GPU, incluida la DPU BlueField 3.