¿Presenta AheadForm Technology el humanoide más realista hasta la fecha?
La empresa china AheadForm Technology de Shanghái presentó el robot humanoide Elf V1, lo más parecido posible a una persona real. Puede ver, oír, hablar, expresar emociones y aprender durante la interacción. Esto se ha logrado gracias a la combinación de una mecánica precisa y algoritmos de inteligencia artificial de autoaprendizaje.
Elf V1 fue diseñado según un principio biónico: la estructura contempla 30 grados de libertad, lo que permite moverse con suavidad y transmitir con precisión las expresiones faciales. Un controlador de alta precisión asegura el control, y el comportamiento se forma a partir de IA que analiza el habla, la expresión facial y el contexto de la comunicación. El robot capta entonaciones, gestos y señales no verbales, por lo que la interacción con él parece natural y sin esfuerzo.
Los ingenieros prestaron especial atención a la movilidad facial. Según CGTN, la cabeza contiene 30 músculos artificiales accionados por micromotores. Funcionan casi sin ruido ni retrasos, por lo que los movimientos de los ojos, los labios y las mejillas parecen realistas. Elf V1 sincroniza el habla con la mímica, es capaz de expresar emociones, detectar el estado de ánimo del interlocutor y cambiar su reacción de inmediato.
Para lograr verosimilitud, los desarrolladores usaron un recubrimiento biónico que imita la piel humana en color y elasticidad. El material reacciona a la temperatura y a la iluminación, y los sensores integrados ayudan a reconocer las expresiones faciales y los estados emocionales de los presentes. Para evitar el efecto de la «valle inquietante», crearon un sistema de modelado dinámico de la mímica y de generación de emociones, gracias al cual el robot se percibe con comodidad y no provoca rechazo.
En AheadForm subrayan que el objetivo del proyecto no es solo una apariencia realista, sino crear una plataforma capaz de coexistir armoniosamente junto a las personas. La empresa prevé el uso de estos dispositivos en educación, salud, servicios y acompañamiento. «Nos esforzamos por difuminar las fronteras entre la persona y la máquina, creando cabezas robotizadas expresivas y emocionalmente sensibles que serán la base de una nueva época de interacción», se afirma en el comunicado de la compañía.
El centro de cálculo principal de Elf V1 es un sistema que integra modelos de lenguaje (LLM) y modelos viso‑lingüísticos (VLM). Gracias a ello, el robot puede procesar simultáneamente el habla, la imagen y el movimiento, analizar el contexto y reaccionar casi como una persona. La inteligencia artificial se perfecciona continuamente, aumentando la velocidad de respuesta y la precisión de las reacciones.