La historia de la GPU: Mario dio origen por accidente al monstruo que hoy gobierna el mundo de la IA

La historia de la GPU: Mario dio origen por accidente al monstruo que hoy gobierna el mundo de la IA

¿Dónde comenzaron los procesadores sin los cuales ya no concebimos nuestra vida?

image

El procesador gráfico, hoy conocido como GPU, no nació como el motor de supercomputadoras ni como el corazón de la inteligencia artificial generativa. Su historia empezó con la máquina recreativa Galaxian de Namco, presentada por primera vez en 1979. La placa en el interior de aquella cabina fue la primera en demostrar que los circuitos diseñados exclusivamente para gráficos podían mostrar más colores, animar más objetos y generar más ingresos que cualquier computadora de propósito general de la época. Fue el punto de partida de una nueva clase de hardware capaz de manejar tareas visuales sin depender del procesador central.

Ese deseo de lograr una experiencia visual más fluida, rica y masiva se transformó con el tiempo en cuatro grandes revoluciones tecnológicas: los videojuegos domésticos, el cómputo científico, el auge de las criptomonedas y, finalmente, la era de la IA generativa. Si seguimos ese recorrido, veremos cómo un chip concebido para el entretenimiento terminó como pilar de los centros de datos y potencial base futura de robots humanoides y sistemas de transporte autónomo.

El primer salto ocurrió en las arcades, donde Galaxian generaba una imagen de 62×128 píxeles, procesando fondos y sprites sin intervención de la CPU. Esa independencia del procesador central permitió crear un esquema pensado exclusivamente para el procesamiento gráfico. La idea resultó rentable: la máquina fue un éxito en Japón y Estados Unidos, impulsando a Namco a lanzar la aún más popular Galaga. Esto convenció a la industria de que una electrónica gráfica dedicada no era un lujo, sino una ventaja competitiva.

En paralelo al auge de los salones arcade, también se desarrollaban las consolas domésticas. La Atari 2600 utilizaba un componente llamado Television Interface Adapter, que combinaba salida de video, sonido y gestión de controles. Era un módulo gráfico rudimentario, pero ya “integrado”. Por otro lado, proyectos militares como el Evans & Sutherland CT5 basado en minicomputadoras DEC PDP-11 costaban decenas de millones de dólares, demostrando cuán caro era generar visuales realistas con hardware limitado.

Nintendo apostó por el software y el marketing. Su consola Famicom de 8 bits (conocida como NES desde 1985) no destacaba por su potencia gráfica, pero sí por ingeniosos recursos de diseño. Las verdaderas innovaciones visuales llegaron en los 90 con la Super Nintendo: un procesador de 16 bits, aceleradores adicionales como el Super FX y la proyección pseudo-3D Mode 7, que permitía, por ejemplo, que las pistas de Mario Kart se vieran tridimensionales. No obstante, las máquinas arcade aún superaban a las consolas caseras: en 1984 Atari presentó I, Robot, la primera cabina en usar gráficos 3D completos.

La revolución del 3D en PCs llegó con la Voodoo 1 de 3dfx en 1996. A diferencia de otras soluciones, no reemplazaba la tarjeta de video principal: solo se activaba en modo 3D. Configurada correctamente, permitía ejecutar Quake a 40 cuadros por segundo en 512×384 píxeles —una hazaña inédita para la época. Los competidores, como ATI con la 3D Rage Pro, intentaron alcanzar ese rendimiento y comenzaron a introducir las primeras técnicas de suavizado de bordes.

El verdadero punto de inflexión fue el anuncio de la NVIDIA GeForce 256 en 1999: por primera vez se utilizó el término graphics processing unit. Este chip integró por primera vez transformaciones, iluminación, rasterización y sombreado en un solo dispositivo, eliminando la dependencia de la CPU para los cálculos gráficos. Por fin los PCs podían renderizar imágenes de 32 bits en resoluciones antes reservadas a las máquinas arcade. Las demostraciones de Quake III en GeForce marcaron un cambio de época: imágenes nítidas y framerate estable.

En los años 2000 comenzó la batalla por la supremacía arquitectónica. Mientras NVIDIA dominaba el mercado de PC, ATI logró un éxito crucial en las consolas. La Xbox 360, lanzada en 2005, incorporó el chip gráfico Xenos, el primer GPU masivo con arquitectura de sombreadores unificados. Esto significaba que sus núcleos podían ejecutar cualquier tipo de operación —desde vértices hasta píxeles—, lo que aumentó notablemente la eficiencia y la velocidad de renderizado. Esta arquitectura se convirtió en el estándar para las generaciones posteriores de tarjetas gráficas.

A medida que los mundos virtuales se volvían más complejos, los desarrolladores aumentaban la cantidad de núcleos y el ancho de banda de la memoria para soportar iluminación dinámica, física y texturas realistas. Fue entonces cuando los científicos advirtieron que si una GPU podía rastrear millones de rayos de luz, también podía resolver con eficiencia problemas de modelado molecular, atmósfera, medicina o física cuántica. Con la llegada de OpenCL fue posible fusionar CPU y GPU en un recurso computacional unificado, dando origen a la era del GPGPU —computación generalizada en tarjetas gráficas.

El siguiente auge vino con las criptomonedas. Para la minería se necesitaba una potencia de cómputo masivamente paralela, y las GPU eran perfectas: resolvían operaciones criptográficas mucho más rápido que los procesadores. Con el alza de Ethereum y Bitcoin en 2017, las tarjetas desaparecieron de las tiendas y sus precios se dispararon. La pandemia y la escasez de semiconductores agravaron el problema. Scalpers compraban en masa, las tiendas impusieron límites y los intentos de NVIDIA de restringir la minería con drivers especiales fracasaron. Solo el cambio de Ethereum al modelo proof-of-stake alivió al mercado de consumo.

Mientras tanto, NVIDIA apostó por las redes neuronales. La arquitectura Volta de 2017 introdujo núcleos tensoriales: bloques optimizados para cálculos matriciales requeridos por el entrenamiento de IA. Las primeras tarjetas GV100 ocuparon un nicho profesional, pero la serie Tesla para centros de datos fue un éxito rotundo. Más adelante, los núcleos tensoriales también llegaron a tarjetas de consumo con la arquitectura Turing, junto con los núcleos RT —aceleradores de ray tracing en tiempo real. Todo ello sentó las bases de DLSS: una tecnología que permite mostrar gráficos 4K aunque el renderizado se haga a menor resolución.

El gran público experimentó el poder de las GPU en 2022, con la aparición de GPT-3 y su interfaz ChatGPT. Su entrenamiento necesitó miles de tarjetas conectadas mediante buses NVLink capaces de transmitir hasta 900 GB/s. En el año fiscal 2024, los ingresos de NVIDIA por centros de datos alcanzaron los $18.400 millones —un crecimiento de más del 400% respecto al año anterior. La GPU H100 ofrecía más de 3 TB/s de ancho de banda y la posibilidad de fraccionarse en múltiples instancias independientes para procesamiento paralelo.

En el CES 2025, la compañía presentó la arquitectura Blackwell, que duplicaba el rendimiento reduciendo el consumo energético, diseñada para entrenar grandes modelos lingüísticos y controlar robots. NVIDIA también marcó su hoja de ruta hacia sistemas autónomos, desde robótica hasta transporte —tareas ideales para arquitecturas de cómputo paralelo.

En el futuro podrían venir procesadores cuánticos o interconexiones ópticas. Pero todo esto es la prolongación de un camino que comenzó con 62×128 píxeles en el cielo de un videojuego arcade. La modesta GPU, nacida para el entretenimiento, se convirtió en la piedra angular de la era computacional moderna. Y su historia está lejos de terminar.

¿Estás cansado de que Internet sepa todo sobre ti?

¡Únete a nosotros y hazte invisible!