Otra curiosa apliación que baraja el proyecto es controlar la televisión con simples gestos faciales.

Jacob Whitehill desarrolló su investigación en la Escuela de Ingeniería Jacobs de la Universidad de San Diego, en California (EE.UU.), en colaboración con el Instituto de Neuro Computación de la misma universidad. Esta semana la presentó en la conferencia de Sistemas Inteligentes para impartir clases, el objetivo más cercano del trabajo de Whitehill. Su intervención se centró en la aplicación de un sistema de reconocimiento gestual a una futura docencia robótica.

"Si fuera un estudiante que aprende con un profesor robot, me mostrara completamente confundido y el robot siguiera impartiendo la materia, no me sirviría de nada. Pero si, en cambio, el robot hiciera una pausa y dijera 'A lo mejor no lo entiendes' y acto seguido yo le contestaría 'Sí, gracias por parar'. Esto sería muy bueno", señaló Joacb Whitehill en declaraciones durante su conferencia, recogidas por Otr/press.

BASE DE DATOS GESTUAL.

Para llegar a este punto, en el que el robot pregunta si hay que repetir o ir más despacio en la lección, la investigación se centró en que los gestos captados por una cámara conectada al ordenador significaran alguna orden. Whitehill se sirvió de un curso de gramática alemana impartida en la misma universidad, las grabó y más adelante estudió los gestos de los alumnos para incorporarlos en el ordenador.

"Quise ver las clases de preguntas que los estudiantes y los profesores usan para tratar de modular o enriquecer las clases. Para mí, se trata de entender y optimizar las interacción entre ambos", dijo el estudiante californiano. Jacob Whitehill luego diseñó el programa informático y de momento los resultados del proyecto piloto son satisfactorios. Ahora Whitehill se centrará en estandarizar los gestos más comunes, diferenciar los que sean espontáneos de los que demuestren comprensión o confusión.