Cada vez que un teléfono inteligente reproduce una melodía favorita o una lámpara "inteligente" cambia el brillo, tras bambalinas actúa un concepto sorprendentemente conciso — dos estados distinguibles. Se suelen representar con los números 0 y 1, pero la esencia no está en los símbolos, sino en el hecho de que solo existe un par de alternativas. Paradójicamente, fue esa dicotomía la que permitió a la humanidad construir toda una civilización digital.
Destellos prehistóricos: de marcas de caza a cuerdas con nudos
Mucho antes de la aparición de la escritura, las personas registraban información con medios muy primitivos. En la cueva de La Pasiega, en Cantabria, los arqueólogos hallaron series de trazos regulares que probablemente reflejaban el número de animales cazados. Marca presente — evento ocurrido; marca ausente — caza fallida. Ya entonces la oposición "huella/vacío" resolvía la tarea del conteo.
En el siglo XIII en Inglaterra se usaban ampliamente tally‑sticks: palos de tejo hendidos. El compromiso de deuda se grababa con muescas y luego el palo se partía: la mitad larga quedaba con el acreedor y la corta con el deudor. Al verificar, las mitades debían coincidir hasta los desgastes de la madera; si no, el registro se consideraba falso. La lógica binaria "muesca existe/muesca no existe" garantizaba protección contra la falsificación sin necesidad de matemáticas.
En el otro extremo del mundo, los incas empleaban quipu — haces de cuerdas de colores con nudos de distintos tipos. La posición del nudo en la fibra determinaba la categoría (unidades, decenas, centenas) y el tipo de nudo su valor. La ausencia de nudo significaba cero, es decir la "negación" del número. El quipu es un ejemplo temprano en el que estados discretos (nudo/vacío) constituyen un sistema de cómputo útil para impuestos y censos.
Raíces filosóficas: hexagramas, pitagóricos y la ley de no contradicción
En el siglo III a. C. los sabios chinos compilaron el "Libro de los Cambios". La base del tratado son 64 hexagramas, cada uno formado por seis líneas: la línea continua simboliza yang y la línea discontinua simboliza yin. Seis posiciones binarias dan 26=64 combinaciones, y la disposición mutua de las líneas se interpretaba como modelo de cualquier situación vital. La filosofía se convertía en código, aunque con un matiz místico.
Las escuelas griegas clásicas llegaron a la binariedad por otro camino. Los pitagóricos vinculaban la paridad con lo femenino y la imparidad con lo masculino; Aristóteles formuló la ley del tercero excluido: una afirmación es verdadera o falsa, no existe una tercera posibilidad. Esa idea se volvió piedra angular de la lógica formal y preparó el terreno para el álgebra de Boole.
Métrica india de Pingala: versos como números
En el siglo II a. C. el gramático Pingala analizó los versos sánscritos. El sílaba larga (guru) la designó como uno y la sílaba corta (laghu) como cero. Al recorrer todas las combinaciones de sílabas, Pingala construyó de hecho el triángulo binomial, equivalente a las fórmulas modernas para 2n. Su tratado "Chandahshastra" describe un algoritmo para convertir un número decimal en binario casi dos milenios antes que los estudiosos europeos.
La métrica de los versos y la combinatoria de los números se unieron en un solo esquema: el poeta podía anticipar los patrones rítmicos y el matemático ver en la poesía una estructura discreta rigurosa. De este modo, una tarea artística se convirtió inesperadamente en un puente matemático hacia el código binario.
Los mensajes ocultos de Francis Bacon
Trasladémonos a la Inglaterra del siglo XVII. Francis Bacon, filósofo y estadista, inventó un cifrado de dos letras. A cada letra del alfabeto latino se le asignaba una secuencia de cinco símbolos formados por "A" y "B". Como "A" y "B" podían representarse con diferente estilo tipográfico o inclinación de la pluma, el cifrado permitía ocultar un mensaje secreto dentro de un texto corriente.
La innovación principal de Bacon no residía tanto en la criptografía como en la idea de que cualquier información puede expresarse mediante una serie de rasgos binarios, imperceptibles a simple vista. Fue un ejemplo temprano de esteganografía que anticipó marcas de agua digitales modernas.
Leibniz: de la simbología oriental a la rigorosidad matemática
En 1703 Gottfried Wilhelm Leibniz publicó la obra "Explication de l’Arithmétique Binaire". Inspirado por los hexagramas chinos, mostró que cualquier número natural puede descomponerse en suma de potencias de dos. Leibniz enfatizó el aspecto metafísico: «Dios creó todo a partir de la nada (0) y de la unidad (1)».
Más allá de la filosofía, lo importante fue lo práctico. Leibniz señaló que las operaciones en sistema binario son más fáciles de mecanizar: la suma se reduce a acarreo de unidades y la multiplicación a desplazamientos. Aunque su calculadora mecánica "Stepped Reckoner" operaba en base decimal, la idea de simplificar los cálculos mediante la binariedad se expresó por primera vez.
Tarjetas perforadas: tejido, estadística y el nacimiento de IBM
En 1804 el tejedor Joseph‑Marie Jacquard automatizó el telar usando tarjetas perforadas. Un agujero en la tarjeta eleva un gancho y altera el patrón; la ausencia de agujero deja el hilo en su sitio. Una tarjeta del tamaño de la palma contenía un "cuadro" del diseño, y una cinta de cientos de tarjetas convertía un ornamento complejo en una serie de decisiones binarias "agujero/cartón".
Ocho décadas después, el estadounidense Herman Hollerith aplicó el mismo principio al procesamiento de datos del censo. Su tabulador electromecánico leía los agujeros con clavijas metálicas: el contacto con una tina de mercurio cerraba el circuito. El censo de 1890 se procesó en 31 meses en lugar de siete años, lo que ahorró millones de dólares al Estado. La compañía de Hollerith acabaría convirtiéndose en IBM, y la tarjeta perforada fue el soporte principal de datos hasta los años 70.
Curiosamente, los primeros programadores "escribían" código literalmente perforándolo. Un error en una celda significaba un agujero de más o de menos: el precio de un bit, pero en forma de celulosa.
Telégrafo, semáforos y los primeros canales "bit a bit"
Samuel Morse en la década de 1840 creó un alfabeto de puntos y rayas. Al pulsar la llave fluye corriente por el cable; al soltarla, no hay corriente. La secuencia de impulsos y pausas codifica letras. Es el primer ejemplo masivo de transmisión de información mediante una señal puramente binaria "corriente/no corriente".
Antes de la electricidad existía el semáforo óptico de Claude Chappe. Torres con brazos móviles transmitían mensajes a decenas de kilómetros. Cada brazo tenía dos posiciones y sus combinaciones formaban un alfabeto de 196 signos. A pesar de su naturaleza visual, el sistema se apoyaba en los mismos dos estados estables.
Más adelante Émile Baudot propuso un código telegráfico de cinco bits que permitió automatizar la recepción en impresoras. Así la binariedad avanzó del código manual de Morse a un intercambio mecanizado de símbolos, acercando la era de la comunicación digital.
Álgebra de Boole y Claude Shannon con 21 años: la matemática encuentra el relé
En 1937 el estudiante de posgrado del MIT Claude Shannon, en su tesis de maestría, demostró que los circuitos de relés pueden diseñarse aplicando el álgebra booleana. Antes de él, los ingenieros construían circuitos lógicos "a ojo", y Shannon mostró el método para traducir fórmulas "(A AND B) OR C" en contactos y bobinas concretas.
Diez años después publicó "A Mathematical Theory of Communication". El concepto de bit adquirió una definición cuantitativa rigurosa: es la unidad mínima de incertidumbre. La fórmula de entropía H = −Σp·log₂p permite medir el "contenido informativo" de un texto y calcular la capacidad máxima de un canal. Desde entonces, el código binario dejó de ser solo una conveniencia y se convirtió en la solución óptima para la comunicación.
Tras Shannon surgieron códigos de corrección de errores, métodos de compresión y toda la teoría de las comunicaciones digitales. Todo empezó con la observación de que un relé puede estar cerrado o abierto, y por tanto encarna perfectamente la lógica booleana.
Pioneros electrónicos: válvulas, mercurio y píxeles
Los primeros ordenadores electrónicos —británico Colossus y estadounidense ENIAC— usaban decenas de miles de válvulas de vacío. Cada válvula podía estar en estado "conduce/no conduce", por lo que naturalmente codificaba un bit. Sin embargo, las válvulas generaban calor, se fundían y consumían kilovatios.
En 1949 EDSAC introdujo líneas de retardo por mercurio: una onda acústica recorre un tubo con mercurio, se refleja y retorna al receptor. Onda presente — bit 1; onda ausente — bit 0. Manchester Baby demostró el almacenamiento en un tubo de rayos catódicos: un píxel cargado brilla; descargado, se apaga. Ambas soluciones eran frágiles, pero demostraron que la memoria podía ser totalmente electrónica.
En la década de 1950 las válvulas comenzaron a ser sustituidas por transistores. El transistor opera más rápido, es más fiable y compacto, manteniendo la misma naturaleza binaria "abierto/cerrado". Así el código binario obtuvo por fin un soporte físico confiable.
Núcleos de ferrita y dominios magnéticos: cómo aprendieron los bits a almacenarse
El equipo de Jay Forrester en el MIT creó en 1951 la memoria de trabajo. Un anillo de ferrita se atraviesa con tres hilos: dos de dirección y uno de lectura. Un impulso cruzado invierte la magnetización del anillo y el hilo lector detecta el cambio de flujo. El almacenamiento se volvió no volátil: los bits se conservan incluso con la alimentación desconectada.
Los núcleos de ferrita se utilizaron en computadoras de a bordo de cohetes y en el sistema de navegación del Apolo. Cada núcleo era un objeto físico de 1 mm de diámetro, pero la fiabilidad fue tan alta que la NASA confióles la vida de los astronautas.
La evolución continuó con los discos magnéticos. Primero los bits se orientaban a lo largo de la pista (longitudinal), luego perpendicularmente al plano (perpendicular), lo que aumentó la densidad centenares de veces. El descubrimiento del efecto de magnetoresistencia gigante (GMR) permitió leer dominios del tamaño de decenas de nanómetros, y hoy los discos de 20 TB son una realidad.
Cómo nació el "byte": del caos al estándar de 8 bits
En los primeros ordenadores el tamaño del símbolo dependía de la arquitectura. El CDC 6600 con palabra de 60 bits usaba símbolos de 6 bits: cabían exactamente 10 en una palabra. El PDP‑10 prefería palabra de 36 bits y símbolo de 7 bits, reservando uno para paridad. La soviética BESM‑6 almacenaba símbolos en 9 bits, añadiendo banderas de control.
El punto de inflexión llegó con la aparición del IBM System/360 (1964). Los ingenieros decidieron que 8 bits eran suficientes para la latín, los dígitos y códigos de control y, sobre todo, fáciles de dividir entre 2 y 4. En un espacio de direcciones de 32 bits, cuatro bytes forman una palabra y dos forman medio palabra. Así el "octeto" se convirtió en la unidad universal, consolidada por normas ISO.
Por cierto, la palabra byte la acuñó el ingeniero Werner Buchholz para evitar la confusión con "bit". Originalmente se escribía "bite", pero se cambió la i por y para evitar el homónimo "mordisco".
Del teletipo a los emoji: por qué hacen falta alfabetos de codificación
El ordenador solo ve números. Para almacenar texto es necesario asignar un número a cada símbolo. Esa tabla se llama codificación. La primera de uso masivo fue ASCII (1963): conjunto de 7 bits con 128 símbolos: latín, dígitos, signos de puntuación y 33 códigos de control (por ejemplo, CR — retorno de carro, BEL — campana).
IBM no quiso romper la compatibilidad con las tarjetas perforadas y creó el EBCDIC de 8 bits. Las letras no están en orden secuencial, sino agrupadas según las columnas de la tarjeta. Como resultado, los programas para ASCII no entendían EBCDIC y viceversa. El mundo quedó dividido: los mainframes hablaban EBCDIC y las mini‑computadoras hablaban ASCII.
Con el desarrollo de Internet hizo falta una tabla única para todos los idiomas. El consorcio Unicode creó un espacio abstracto de puntos de código. ¿Pero cómo encajarlos en bytes? La solución fue UTF‑8. Si el código ≤ 0x7F, coincide con ASCII y ocupa 1 byte; la escritura cirílica ocupa 2; los caracteres raros o ideogramas, 3‑4. Gracias a esto las páginas web siguen siendo compatibles con utilidades antiguas, pero muestran emojis y caracteres poco comunes sin problemas.
El precio de un bit: cuando un error minúsculo arruina millones
A veces basta un bit erróneo para que un proyecto costoso termine en catástrofe. Veamos cuatro casos conocidos, ampliamente descritos en informes de investigación.
-
Therac‑25 (1985‑1987). Un acelerador médico controlado por software en ensamblador para PDP‑11. Debido a condiciones de carrera, un contador de dosis de 8 bits a veces se reiniciaba y el paciente recibía una dosis 100 veces mayor. Seis personas murieron antes de que se encontrara la ausencia de un bloqueo de seguridad.
-
Ariane 5 Flight 501 (1996). El desbordamiento de un registro de 16 bits de la velocidad provocó el reinicio de ambos ordenadores de navegación. El cohete, valorado en 370 millones de dólares, se desvió de su trayectoria y fue autodestruido.
-
Pentium FDIV bug (1994). En una tabla de coeficientes de la división faltaban cinco valores. El error ocurría una vez cada 9 millones de operaciones, pero eso bastó para cálculos científicos críticos. Intel retiró y sustituyó procesadores, perdiendo alrededor de 475 millones de dólares.
-
Mars Climate Orbiter (1999). El software en Tierra emitía impulsos en libras‑fuerza mientras el software de a bordo esperaba newton‑segundos. La discrepancia de unidades no fue detectada por las comprobaciones y la sonda se desintegró en la atmósfera de Marte.
Cada caso es un recordatorio: un bit puede costar vidas, dinero y reputación. Por eso los ingenieros idearon todo un arsenal de técnicas para detectar y corregir errores.
Corrección de errores: desde la paridad hasta los códigos de Reed–Solomon
El método más simple consiste en añadir a un byte un bit de paridad, haciendo la suma de unos par o impar. El método detecta un error único, pero no indica dónde ocurrió.
En 1950 Richard Hamming propuso un código que no solo detecta sino que corrige fallos individuales. En la variante (7,4) se añaden tres bits de control a cuatro bits de información. La posición del bit erróneo se calcula mediante el síndrome y luego se invierte.
Para bloques largos se usan códigos de Reed–Solomon. Operan sobre bytes como elementos del campo finito GF(256) y pueden recuperar hasta t errores, donde t es la mitad de los símbolos redundantes. El audio en CD emplea dos niveles de este código, por lo que el disco suena sin clics incluso con rasguños. En tramas de red Ethernet se usa CRC‑32: el residuo de una división polinómica se comprueba en el receptor.
La ternaria y los enfoques multinivel desafían el trono binario
El código binario fue sustituido en varios intentos. La computadora soviética "Setun" (1958) operaba en lógica ternaria: −1, 0, +1. La ternaridad ahorraba memoria y simplificaba la multiplicación, pero la falta de componentes y estándares acabó con el proyecto.
Hoy las celdas flash TLC y QLC distinguen 8 y 16 niveles de carga, almacenando 3‑4 bits en una sola celda. El controlador convierte la señal multinivel en bits convencionales y añade ECC potente, porque en el bus del sistema al final se transmiten 0 y 1.
En fibra óptica es popular la modulación PAM‑4: cuatro amplitudes transportan dos bits por símbolo, duplicando la capacidad sin aumentar la frecuencia de reloj. Pero cuantos más niveles hay, más estrictos son los requisitos de linealidad de los amplificadores y más caro es el equipo.
Horizonte cuántico: qubit, superposición y aun así 0/1
El qubit es el análogo cuántico del bit. Puede encontrarse en superposición |0⟩ y |1⟩, pero la medida siempre arroja uno de los dos resultados. Los algoritmos cuánticos (por ejemplo, el algoritmo de Shor) usan la interferencia de amplitudes para obtener respuestas más rápido que los algoritmos clásicos.
No obstante, la electrónica de control sigue siendo clásica. Se programan circuitos en Qiskit o Cirq; el compilador los descompone en puertas y envía al controlador comandos binarios: "aplicar un pulso de microondas de cierta frecuencia y duración". Incluso en la era cuántica la interfaz binaria no desaparece; solo adquiere un nuevo nivel de abstracción.
Cultura binaria: estética de 8 bits, demoscene y chiptune
A mediados de los 80 las consolas domésticas Nintendo NES y Sega Master System ofrecían recursos técnicos modestos: resolución 256 × 240 px, 48 colores simultáneos y una paleta de hardware de tres bits por canal. La memoria del cartucho se medía en decenas de kilobytes, y el sonido lo generaba un chip PSG de cuatro canales con graduación de volumen de dos bits. Los desarrolladores reducían la gráfica a grandes píxeles cuadrados y componían melodías dentro de tres o cuatro notas simultáneas.
El nacimiento del pixel art. Para disimular "escalones" y paletas pequeñas, los artistas idearon técnicas de dithering y contornos sub‑pixel, que daban la ilusión de degradados suaves. En lugar de ocultar los píxeles, los destacaron, convirtiendo la limitación en un recurso expresivo. Hoy exposiciones del MoMA y del V&A incluyen obras creadas con estética de 8 bits, y juegos indie modernos ("Celeste", "Undertale") la imitan deliberadamente porque un píxel grande se lee de inmediato como una forma digital "honesta".
Música desde el chip de vídeo. Los chips Ricoh 2A03 (NES) y SN76489 (Master System) generaban sonido con osciladores digitales básicos: pulsos rectangulares, ruido LFSR y onda triangular. Los compositores, privados de la posibilidad de escribir acordes en una banda ancha, aprendieron a alternar rápidamente la altura (arpeggio) y el volumen (volume sweep), creando la ilusión de armonías ricas. Así nació el género chiptune, que hoy suena en festivales como Blip Festival y Chipwrecked; las pistas se escriben no en un DAW sino en trackers como Famitracker, donde cada nota aún se codifica con un par de números: altura y duración.
Qué es la demoscene. A finales de los 80 los entusiastas empezaron a publicar "demos": programas no jugables que muestran trucos gráficos y de audio en hardware concreto. El reto principal era lograr lo aparentemente imposible en una plataforma limitada. En los 90 aparecieron categorías como 64 k intro e incluso 256‑byte intro. Imagine una animación 3D con música cabiendo en un archivo del tamaño de dos tuits. Los ganadores de Assembly o Revision solían publicar el código fuente, donde cada byte contaba: las constantes se calculaban al vuelo y las tablas de senos se generaban con una sola línea de código.
Por qué importa esto para nuestro tema. El pixel art, el chiptune y la demoscene son fenómenos culturales nacidos de límites estrictos de bits. Los autores aprendieron a convertir la restricción "solo tantos bits" en un lenguaje artístico, demostrando que la creatividad no depende de gigabytes de recursos. Así confirmaron una vez más la universalidad del código binario: incluso una porción mínima puede transmitir una gran carga de emociones y significados.
Chips neuromórficos: de spikes a bits y vuelta
Por qué imitar el cerebro. Las GPU tradicionales procesan matrices con eficacia, pero consumen cientos de vatios. El cerebro humano realiza tareas similares de reconocimiento de patrones gastando apenas unos 20 W. Los investigadores intentan reproducir ese "algoritmo de eficiencia" biológico en silicio: así nació la computación neuromórfica.
Cómo funcionan las redes de spikes. En neurobiología la información se transmite no por voltaje continuo sino por impulsos breves — spikes. La neurona acumula corriente hasta un umbral, dispara y se reinicia. La línea temporal se convierte en una alternancia de eventos "hay impulso/no hay impulso": de nuevo, un principio binario pero en el dominio temporal.
Intel Loihi. El chip contiene 128 "núcleos‑neurona", cada uno modela ~1 000 neuronas artificiales y hasta 130 000 sinapsis. Las neuronas acumulan carga con pasos de 1 mV (elemento analógico), pero cuando se alcanza el umbral el núcleo genera un paquete digital — una palabra de 24 bits que codifica la ID de la neurona, tiempo y peso del impulso. Los paquetes viajan por la red sobre el protocolo Address‑Event Representation: en la práctica es un bus asíncrono de pequeños "mensajes bit a bit".
IBM TrueNorth. La arquitectura contiene un millón de neuronas y 256 millones de sinapsis, consumiendo 70 mW. Cada núcleo almacena pesos sinápticos en 4 bits y genera paquetes de spikes de 9 bits. De este modo, dentro del núcleo los datos circulan como corriente analógica, pero los límites entre núcleos se cruzan exclusivamente con palabras digitales.
Naturaleza híbrida. En el interior del cristal el cálculo es evento‑basado y esencialmente analógico: las corrientes se suman de forma continua. Pero en cuanto un impulso sale del núcleo, se transforma en un paquete bien definido de ceros y unos para llegar sin errores al destinatario. El compromiso analógico‑digital permite combinar la eficiencia energética del cerebro con la fiabilidad de la comunicación binaria.
Conclusión para nuestra historia. Incluso en los chips más avanzados que imitan neuronas biológicas, el código binario sigue siendo "el idioma de la comunicación entre procesadores". Mientras se requiera transmitir señales sin distorsión, empaquetamos impulsos en secuencias de 0 y 1: por eso la historia de la binariedad continúa en la era neuromórfica.
Conclusión: una simplicidad que no ha quedado obsoleta
Desde las muescas de caza hasta los qubits en un criostato han pasado más de cinco mil años, pero el principio se mantiene: el mundo es cómodo de describir mediante la oposición "hay/no hay". El código binario ha demostrado su universalidad, sobreviviendo al cambio de materiales, principios físicos y arquitecturas. Mientras el ser humano necesite fiabilidad, escalabilidad y unicidad, la pareja de símbolos 0 y 1 seguirá siendo la base de la comunicación digital — y quizás el puente hacia tecnologías que apenas comenzamos a comprender.