Nvidia y la fiebre de la inteligencia artificial
Por Yurisander Guevara
Si la siguiente fiebre del oro es la de la inteligencia artificial (IA), Nvidia es el proveedor de los picos para minería. El fabricante de unidades de procesamiento de gráficos (GPU, por sus siglas en inglés) vive un momento singular, pues sus productos son altamente demandados por una industria en ciernes que, afirman los expertos, significa la nueva revolución industrial.
Como ejemplo está el reciente lanzamiento de la serie 40 de los GPU de Nvidia. El pasado fin de semana, durante la puesta a la venta del modelo 4060 Ti, en Japón, solo una persona se presentó a comprarla en la tienda ubicada en el distrito de Akihabara, en Tokio. Y es que las opiniones en las redes en torno a esta tarjeta gráfica son casi unánimes: muy cara para lo que ofrece en comparación con otras similares.
Sin embargo, eso a Nvidia no parece preocuparle. La empresa reveló hace unos días sus ganancias proyectadas hasta fines de julio próximo, y esperan ingresar 11 000 millones de dólares, un aumento del 64 por ciento con respecto al mismo período del año pasado, según PCGamer. La razón: Nvidia es uno de los mayores proveedores para la industria de la inteligencia artificial y está aprovechando esta nueva ola.
El reino de las GPU
En una computadora, la unidad central de procesamiento, o CPU, por sus siglas en inglés, es la que se encarga de centrar todos los procesos. Sin embargo, las GPU son las que modelan los gráficos y brindan la posibilidad de disfrutar de videos y juegos en alta definición.
Mientras que las CPU pueden procesar muchas tareas generales de manera rápida y secuencial, las GPU utilizan la computación paralela para desglosar problemas enormemente complejos en múltiples cálculos simultáneos más pequeños. Esto las hace ideales para manejar los procesos computacionales masivamente distribuidos necesarios para el aprendizaje automático. Y es por ello que son las GPU cardinales para entrenar modelos de IA.
En la era de ChatGPT, Bard y cuanto modelo de IA está siendo entrenado en estos momentos, contar con potentes GPU es vital. Por ejemplo, ChatGPT ha sido entrenado con 10 000 GPU fabricados por Nvidia, y la demanda solo seguirá aumentando, a juzgar por las informaciones que surgen en los últimos tiempos.
Una era de supercomputadoras
Para entrenar modelos de IA no basta con una computadora. Bueno, en teoría sí, pero en la práctica ChatGPT y sus similares necesitan de más potencia, y aquí es donde las supercomputadoras entran al juego.
Estos equipos son potenciados por miles de GPU que, secuenciados, se unifican como un potente GPU, un mercado en el que Nvidia ha reinado durante décadas desde su fundación en 1993, y que ahora parece expandirse.
En Computex, el evento tecnológico anual de Nvidia realizado el pasado 28 de mayo, el director ejecutivo de la empresa, Jensen Hiang, brindó detalles sobre la próxima supercomputadora DGX de la compañía. Se trata de la DGX GH200, la cual se espera que ayude a las empresas a desarrollar modelos de IA generativa todavía más potentes.
La publicación especializada Engadget detalla que la supercomputadora utiliza un nuevo sistema de conmutación NVLink para permitir que 256 superchips GH200 Grace Hopper actúen como una sola GPU (cada uno de los chips tiene una CPU Grace basada en Arm y una GPU H100 Tensor Core). Esto, según Nvidia, permite que la DGX GH200 ofrezca un exaflop de rendimiento y tenga 144 terabytes de memoria compartida. La compañía dice que es casi 500 veces más memoria de la que encontraría en un solo sistema DGX A100, su supercomputadora anterior.
A modo de comparación, la última clasificación de las supercomputadoras Top 500 enumera a Frontier, en el Laboratorio Nacional de Oak Ridge, en Tennessee, Estados Unidos, como el único sistema de esa escala conocido, al haber alcanzado un rendimiento de casi 1,2 exaflops en el punto de referencia de Linmark. Eso es más del doble del rendimiento máximo del sistema en segundo lugar, el Fugaku, de Japón.
Sin embargo, Nvidia asegura haber desarrollado una supercomputadora que puede estar junto al sistema conocido más poderoso del planeta (Meta, por su parte, está construyendo una que, según afirma, será la supercomputadora de IA más rápida del mundo una vez que esté completamente construida). Nvidia asevera que la arquitectura de la DGX GH200 ofrece diez veces más ancho de banda que la generación anterior.
Con tales prestaciones, algunos grandes nombres ya se afilan los dientes con la DGX GH200. Google Cloud, Meta y Microsoft, por ejemplo, deberían estar entre las primeras empresas en obtener acceso a la supercomputadora para probar cómo puede manejar cargas de trabajo de IA generativa. Nvidia informó que las supercomputadoras DGX GH200 deberían estar disponibles para fines de 2023.
La empresa también construye su propia supercomputadora, llamada Helios, que combina cuatro sistemas DGX GH200 y espera que esté operativa a finales de este año.
Jugar y conversar
Además de construir GPU que son capaces de entrenar los modelos de IA, Nvidia desarrolla otras tecnologías que impactarían en uno de los mercados en los que más ha tenido presencia en sus 30 años de fundación: el de los videojuegos.
Así, en Computex la empresa dio a conocer una nueva tecnología llamada Avatar Cloud Engine (ACE, por sus siglas en inglés), que permitirá a los jugadores conversar con los NPC (non playable characters o personajes no jugables) como si fueran seres humanos.
Un NPC es un personaje generado en un juego con el cual se interactúa, o no, y cuyo comportamiento suele ser automático y controlado.
Con el avance tecnológico de este siglo, los NPC en los juegos se han vuelto más interactivos, pero hasta ahora los diálogos con ellos son a base de escoger múltiples opciones conversacionales prescritas, o simplemente tocar el botón de interacción para escucharlos hablar —si es que hablan, muchos no lo hacen, solo son relleno en un juego—.
Pero con ACE Nvidia va un paso más allá. En un breve video de dos minutos se muestra cómo un jugador entra en un restaurante de ramen con estilo steampunk y le habla al NPC que, en ese caso, es el dependiente. La breve conversación activa una misión secundaria y, aunque es un diálogo muy básico, abre puertas a la imaginación de cómo serán los juegos del futuro en cuanto a interactividad.
Tomado de Juventud Rebelde