Emojis y avatares para los juegos hay muchos, pero encontrar uno que pueda transmitir los sentimientos o emociones que desean los usuarios es una tarea más difícil de conseguir.
Para solucionar esta dificultad es que un equipo de investigadores de la Universidad de Cornell, en Estados Unidos, desarrolló un auricular que lee las expresiones faciales completas, pudiendo convertirlas en emojis o avatares, los cuales pueden ser usados en la realidad virtual.
Lee también: Crean delfines robots que reemplazarían a animales que se encuentran en cautiverio
Pese a que la lectura de expresiones no es una tecnología nueva, el llamado C-Face no requiere de sensores en el rostro del usuario, ni cámaras frontales para realizar sus labores.
“La mayoría de las soluciones necesitaban colocar sensores en la cara (…) e incluso con tanta instrumentación, solo podían reconocer un conjunto limitado de expresiones faciales discretas “, sostuvo en un comunicado Cheng Zhang, autor principal del estudio.
C-Face posee cámaras RGB en miniatura, las cuales registran los cambios de los contornos faciales provocados por el movimiento de los músculos del rostro, pudiendo capturarlas incluso cuando las personas usan mascarilla.
“Cuando realizamos una expresión facial, nuestros músculos faciales se estiran y contraen. Empujan, tiran de la piel y afectan la tensión de los músculos faciales cercanos, tal efecto provoca que el contorno de las mejillas se altere desde el punto de vista de la oreja”, relataron en el estudio.
Lee también: Técnica desarrollada y ensayada en Chile permitiría detectar el COVID-19 sólo con la voz
Una vez capturadas las imágenes, se reconstruyen los rostros usando visión por computadora y un modelo de aprendizaje profundo. Posteriormente, una red neuronal convolucional ayuda a reconstruir estos contornos en expresiones.
“Este dispositivo es más simple, menos molesto y más capaz que cualquier tecnología portátil existente en el oído para rastrear expresiones faciales”, recalcó Zhang.
Deja tu comentario