Los investigadores muestran robots que pueden imitar expresiones faciales

No todos los robots necesitan imitar la anatomía humana. El punto más débil para quienes tienen expresiones faciales suele limitarse a las "caras de póquer". En los últimos años, los robots antropomórficos se han convertido cada vez más en herramientas auxiliares para determinadas actividades industriales o determinados servicios.

Basándose en el interés de los últimos años, los investigadores del Laboratorio de Máquinas Creativas de la Escuela de Ingeniería de la Universidad de Columbia demostraron EVA, un nuevo tipo de robot autónomo con un rostro suave y expresivo que puede responder a las expresiones cercanas. Las personas son el producto de cinco años de trabajo.

Robots que responden imitando expresiones faciales.

En relación con el desarrollo de la "humanización" de los robots de servicio, el equipo de investigación de la Universidad de Columbia estaba interesado en desarrollar robots con rostros humanos expresivos y receptivos.

Esta iniciativa fue un gran desafío desde el principio. Por un lado debido a la complejidad del rostro, piel, huesos y más de 42 músculos, por otro lado debido a los recursos materiales empleados, los grandes especialistas en robótica tienden a utilizar la rigidez que contribuye en gran medida a las necesidades de la situación dada.

La decisión de hacer un sistema suficientemente compacto y potente con EVA proviene de la impresión 3D, que permite la producción de complejas piezas moldeadas que se adaptan perfectamente a la forma del cráneo humano.

Según la introducción oficial, EVA puede expresar las seis emociones básicas de ira, disgusto, miedo, alegría, tristeza y sorpresa, así como una gama de emociones más sutiles con "músculos" artificiales hechos de cables y cuerdas. El motor arranca en cierto punto de la cara de EVA y simula un rostro humano.

Gracias a la inteligencia artificial, el plano del robot se ha publicado bajo una licencia de código abierto y refleja lo que puede captar en las expresiones faciales de otras personas cercanas. Con la tecnología de aprendizaje profundo, EVA ha hecho su propio ensayo y error al revisar sus videos de rendimiento anteriores. La capacidad de calificar su trabajo se obtiene después de observar a una persona real mirándose a sí misma durante una videollamada.

Además de simular gestos en el sentido más simple, al demostrar su progreso, el equipo de investigación encontró que las acciones asociadas eran demasiado complejas para limitarse a un número predeterminado de reglas. Hay condiciones contextuales en la vida social que no necesariamente responden a patrones, lo que dificulta la automatización de estas situaciones.

Por ejemplo, si un EVE está fingiendo una sonrisa, lo hará sin saber si responderá a una sonrisa verdaderamente feliz o, más probablemente, a una sonrisa provocada por terminaciones nerviosas. Por ahora, sin embargo, es solo un experimento de laboratorio, lejos del uso público o comercial, que podría sentar las bases para usos más complejos de la tecnología en el futuro.

"Los robots están cada vez más entrelazados con nuestras vidas, por lo que generar confianza entre humanos y máquinas es cada vez más importante".El autor principal del estudio, Boyuan Chen, dijo que estaba recopilando investigaciones sobre EVA.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir
error: Content is protected !!