Hicieron que la luz siguiera instrucciones — sin chips, lentes ni código. Solo con un trozo de materia

Hicieron que la luz siguiera instrucciones — sin chips, lentes ni código. Solo con un trozo de materia

Lo que antes hacía un superordenador, ahora lo resuelve una lámina de vidrio. En tiempo real.

image

Ingenieros de la Universidad de California en Los Ángeles (UCLA) presentaron una plataforma universal para el control espacial de funciones de dispersión puntual (point spread function, PSF) en óptica tridimensional. El trabajo fue publicado en la revista Light: Science & Applications y, según los expertos, abre nuevas posibilidades para la microscopía, la espectroscopía y el procesamiento óptico de datos.

Dicho de forma sencilla, la PSF describe cómo un sistema óptico forma una imagen de un único punto luminoso. Imagínate que iluminas una aguja y observas cómo su luz se proyecta en una pantalla. La forma en que esa luz se dispersa y se extiende es precisamente la PSF. Al controlar este proceso, se puede modificar la nitidez, profundidad y expresividad espacial del objeto visualizado. En óptica volumétrica, la PSF lo es todo: desde el enfoque hasta la capacidad de penetrar en estructuras complejas.

Gracias a esta nueva arquitectura, es posible diseñar estructuras tridimensionales de dispersión con geometría y distribución arbitrarias —sin filtros tradicionales, partes móviles ni algoritmos de reconstrucción digital. Es decir, la visualización 3D puede realizarse directamente mediante la física óptica.

En los sistemas clásicos, la PSF se controla con una única máscara de fase montada en el objetivo, lo cual permite solo un modo de operación fijo —como una regla sin divisiones. El equipo de UCLA propuso una estrategia distinta: ensamblar una secuencia de elementos ópticos pasivos, cada uno con su propia función para transformar el flujo de luz.

Estas superficies se diseñan y optimizan previamente mediante algoritmos de redes neuronales. En lugar de un ajuste manual, el sistema se entrena para determinar la forma óptima. Una vez calculada, la estructura se construye físicamente y comienza a funcionar —sin necesidad de electrónica o procesamiento digital.

Cada una de estas superficies porta un perfil específico de control del frente de onda. En conjunto, crean una transformación espacial precisa de la intensidad en volumen. Esto permite, por ejemplo, programar la trayectoria de la luz dentro de una región para formar la distribución deseada —sin retrasos ni postprocesado.

El análisis mostró que estas estructuras difractivas pueden realizar cualquier operación lineal entre las distribuciones ópticas de entrada y salida. En otras palabras, el comportamiento de la luz puede definirse de forma flexible y anticipada —ya sea para cambiar el foco, dividir espectros o dirigir el haz a regiones específicas del espacio.

Uno de los logros clave fue la integración conjunta del diseño espectral y espacial de la PSF. Esto permite desarrollar dispositivos de captura multiespectral instantánea, sin movimiento mecánico ni cambios de modo. Una cámara basada en este principio puede captar la escena en múltiples espectros y desde distintos ángulos de forma simultánea.

Este enfoque —puramente físico, sin necesidad de corrección computacional— ofrece una flexibilidad excepcional para sistemas ópticos de alto rendimiento. Tiene aplicaciones prometedoras en microscopios 3D compactos, escáneres médicos, sensores espectrales y transmisión óptica de datos.

El avance marca una transición importante para la computación óptica y la visualización avanzada. En lugar de depender de ópticas rígidas, los desarrolladores ofrecen ahora una solución capaz de adaptarse a cualquier tarea antes incluso de que la luz alcance el sensor.

Las aplicaciones potenciales abarcan desde sensores multicanal y escáneres portátiles hasta sistemas de enfoque volumétrico. Especialmente destacada es la dirección de transmisión y codificación óptica de información, donde puede lograrse una alta densidad de señales y resistencia al ruido mediante la adaptación del frente óptico.

El proyecto fue liderado por el Dr. Mda Sadman Sakib Rahman y el profesor Aydogan Ozcan del Departamento de Ingeniería Eléctrica de UCLA y del Instituto Californiano de Nanosistemas. Su método combina la precisión matemática de la óptica de ondas con el poder del aprendizaje profundo, convirtiéndose en un desarrollo especialmente relevante en la intersección entre la física y las tecnologías computacionales.

Además, no se requieren fuentes de luz potentes ni materiales exóticos. Toda la complejidad está en la fase de diseño y simulación. Los componentes se fabrican con técnicas accesibles, como la impresión 3D y la fotolitografía, lo que hace que la plataforma sea apta para aplicaciones industriales y producción a escala.

Las huellas digitales son tu debilidad, y los hackers lo saben

¡Suscríbete y descubre cómo borrarlas!