Las computadoras pueden saber si estás aburrido

La tecnología podría conducir a los robots ” empáticas y programas de aprendizaje en línea reactivos. Las computadoras son capaces de leer el lenguaje corporal de una persona para saber si están aburridos o interesados en lo que ven en la pantalla, según un nuevo estudio dirigido por el experto en lenguaje corporal Dr. Harry Witchel, Líder de Disciplina en Fisiología en Brighton y Sussex Medical School.

Computers_Can_Tell_Youre_Bored_440

La investigación muestra que mediante la medición de movimientos de una persona, ya que utilizan un ordenador, es posible juzgar su nivel de interés por determinar si le muestran los pequeños movimientos que las personas exhiben generalmente constante, conocidos como movimientos no instrumentales. Si alguien se absorbe en lo que están viendo o haciendo – lo que el Dr. Witchel llama “compromiso absorta ‘- hay una disminución en estos movimientos involuntarios.

Dr. Witchel dijo: “Nuestro estudio mostró que cuando alguien está realmente muy interesados en lo que están haciendo, que suprimen estos pequeños movimientos involuntarios. Es lo mismo que cuando un niño pequeño, que normalmente es constantemente en movimiento, mira fijo enorme en los dibujos animados en la televisión, sin mover un músculo “.

El descubrimiento podría tener un impacto significativo en el desarrollo de la inteligencia artificial. Las aplicaciones futuras podrían incluir la creación de programas de tutoría en línea que se adaptan al nivel de interés de una persona, con el fin de volver a participar si ellos están mostrando signos de aburrimiento. Incluso podría ayudar en el desarrollo de robots de compañía, lo que sería más capaz de estimar el estado mental de una persona.

También, para los diseñadores de experiencia como directores de cine o de los fabricantes de juegos, esta tecnología podría proporcionar la lectura complementaria de momento a momento, de si los eventos en la pantalla son interesantes. Mientras que los espectadores se les puede pedir subjetivamente lo que ha gustado o no, una tecnología no verbal sería capaz de detectar las emociones o estados mentales que la gente o se olvidan o prefieren no hablar.
“Ser capaz de” leer “el interés de una persona en un programa de ordenador que podría traer beneficios reales para el aprendizaje digital del futuro, por lo que es un proceso mucho más bidireccional. Más adelante podría ayudar a crear robots de compañía más empático, que pueden sonar muy “ciencia ficción”, pero se están convirtiendo en una posibilidad realista dentro de nuestras vidas “, dijo el Dr. Witchel.

computer-engagement-public

En el estudio, 27 participantes se enfrentaron a una serie de estímulos de tres minutos en un equipo, desde los juegos fascinantes a lecturas tediosas de regulación bancaria de la UE, mientras que el uso de una rueda de desplazamiento de mano para minimizar los movimientos instrumentales, tales como mover el ratón. Sus movimientos se cuantificaron durante los tres minutos usando el seguimiento de movimiento de vídeo. En dos tareas de lectura comparables, la lectura más atractivo resultó en una reducción significativa (42%) de movimiento no instrumental.
El equipo de estudio también incluyó dos de equipo del Dr. Witchel, Carlos Santos y el Dr. James Ackah, un experto en medios de la Universidad de Sussex Carina Westling, y el grupo de biomecánica clínica de la Universidad de Staffordshire dirigido por el Prof. Nachiappan Chockalingam.

No dudes en dejar tu comentario!

Loading Facebook Comments ...

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *