Emo, el robot que imita muecas y sonrisa de personas solo con mirarlas, ¿es éticamente correcto?

El laboratorio de ingeniería de Columbia lleva años desafiando la expresión facial humana por medio de sus robots. Emo, uno de sus prototipos, ha alcanzado el nivel de anticipar e imitar en segundos la sonrisa de cualquier persona, solo con mirarla fijamente. ¿Es éticamente correcto llegar a este punto? ¿Para qué servirá en el futuro?

El estudio publicado en Science Robotics presenta a Emo, un robot que anticipa las expresiones faciales y las ejecuta simultáneamente con un humano. Copiar la sonrisa de una persona solo le toma 840 milisegundos, antes de que la persona sonría, haciendo el gesto simultáneamente con ella. La corporación dueña, es consciente de las consideraciones éticas asociadas con esta nueva tecnología.

El Creative Machines Lab de Columbia Engineering lleva cinco años trabajando en estos desafíos. El autor principal del estudio es Yuhang Hu, un estudiante de doctorado en Ingeniería de Columbia en el laboratorio de Hod Lipson. El equipo del Hod Lipson es referente en investigación y líder en los campos de la inteligencia artificial (IA) y robótica.

Te puede interesar: ¡Aterradora! Así es la nueva IA de OpenAI, clona tu voz escuchandote 15 segundos

Al principio la mímica facial salía retrasada y parecía falsa. Se requería inferir correctamente el estado emocional del ser humano para una ejecución oportuna. Primero diseñaron mecánicamente una cara robótica expresivamente versátil que involucra hardware y mecanismos de actuación complejos. Este, es capaz de generar expresiones que parecen naturales, oportunas y genuinas.

El robot Emo es un gran logro. Tiene una cara robótica revestida de silicio que establece contacto visual y utiliza dos modelos de inteligencia artificial para anticipar y replicar la sonrisa de una persona; un avance importante en los robots que predicen con precisión las expresiones faciales humanas, mejoran las interacciones y construyen confianza entre humanos y máquinas.

Emo es una cabeza humana con un rostro equipado con 26 actuadores que permiten una amplia gama de expresiones matizadas. Está cubierto con una suave piel de silicona con un sistema de fijación magnético, lo que permite una fácil personalización y un rápido mantenimiento. Para lograr interacciones más realistas, los investigadores integraron cámaras de alta resolución dentro de la pupila de cada ojo, lo que permitió a Emo establecer contacto visual, crucial para la comunicación no verbal.

Para entrenarlo, los investigadores pusieron a Emo frente a la cámara y le permitieron realizar movimientos aleatorios. Después de unas horas, el robot aprendió la relación entre sus expresiones faciales y los comandos motores, de forma muy parecida a como los humanos practican las expresiones faciales en el espejo; “automodelado”.

El equipo desarrolló dos modelos de IA: uno que predice las expresiones faciales humanas analizando cambios sutiles en la cara del objetivo y otro que genera comandos motores utilizando las expresiones faciales correspondientes.

Al reproducir los vídeos de expresiones faciales humanas, Emo las observó cuadro por cuadro. “Creo que predecir con precisión las expresiones faciales humanas es una revolución en HRI. En el futuro, cuando interactúes con un robot, éste observará e interpretará tus expresiones faciales, como una persona real, como retroalimentación”, explica Yuhang Hu.

Te puede interesar: ¿Cómo te sientes? Hume IA te lo dice y descubre emociones ocultas: Así la puedes probar

Los investigadores ahora están trabajando para integrar la comunicación verbal, utilizando un modelo de lenguaje grande como ChatGPT en Emo. A medida que los robots se vuelven más capaces de comportarse como humanos,

“Aunque esta capacidad presagia una gran cantidad de aplicaciones positivas, que van desde asistentes domésticos hasta ayudas educativas, corresponde a los desarrolladores y usuarios ejercer prudencia y consideraciones éticas. Robots que puedan integrarse perfectamente en nuestra vida diaria, ofreciendo compañía, asistencia e incluso empatía”, explica Sally Scapa, Profesor de Innovación en el Departamento de Ingeniería Mecánica en Columbia.

Imagen:  Cortesía de Creative Machines Lab

Digna Irene Urrea

Digna Irene Urrea

Comunicadora social y periodista apasionada por las buenas historias, el periodismo literario y el lenguaje audiovisual. Aficionada a la tecnología, la ciencia y la historia.

View all posts

Archivos