Faro de Vigo

Faro de Vigo

Contenido exclusivo para suscriptores digitales

Un sistema permite convertir emociones en sonidos para "dar voz" a discapacitados

Un equipo científico diseña un dispositivo que conecta el cerebro con un software que traduce las ondas cerebrales - Mejora otros proyectos empleados con parálisis cerebral

Una prueba del sistema. // Efe

Las emociones y sentimientos que se generan en el cerebro de los seres humanos ya se pueden traducir en un sonido. Las ondas de algo que nos horroriza no son, ni suenan, iguales que la de las cosas que nos satisfacen; tampoco lo que nos provoca ansiedad o lo que nos serena. En eso se basa un dispositivo que han presentado científicos del Centro de Regulación Genómica y la Universitat de Barcelona, en colaboración con la empresa de investigación "Starlab". Han desarrollado un sistema que convierte las ondas cerebrales en sonido, un sistema pionero que "da voz" en tiempo real a las personas con discapacidad que no pueden comunicarse por si solas ni mediante otras herramientas ya existentes.

La aplicación -basada en un casco que mide los impulsos y un software que los traduce- ya se ha probado con pacientes con parálisis cerebral, de quienes no se sabía ni siquiera si eran capaces de comprender lo que sucede a su alrededor y que han logrado comunicarse. El sistema, que se está desarrollando desde marzo, ha sido ensayado con dos pacientes con discapacidad cerebral con buenos resultados. Eso sí, es todavía un proyecto piloto, que requiere de una investigación de un año para diseñar un prototipo más sólido que podría llegar a facilitar que los pacientes con parálisis cerebral apagaran la luz de forma autónoma si están cansados, por ejemplo.

El aparato ahora desarrollado es el único que consigue crear sonido en base a las emociones. ¿Cómo se miden? El sistema permite medir señales de electroencefalografía, cardíacas y musculares, sin necesidad de control motor por parte del paciente y en tiempo real. Según la intensidad de las ondas cerebrales, el ritmo cardíaco, su variación o la actividad muscular, el aparato mide si una persona que no puede expresarse ni verbal ni físicamente siente emociones positivas (felicidad) o negativas (tristeza o enfado) en mayor o menor intensidad.

La mayoría de sistemas de traducción de señales actuales necesitan control motor por parte del paciente -por ejemplo, siguiendo el movimiento de la retina en los ojos-, por lo que los discapacitados con espasmos y los que no consiguen controlar ningún aspecto motor quedan excluidos y no pueden utilizarlos. Otro inconveniente es que muchos de estos dispositivos hasta ahora existentes no permiten un análisis en tiempo real de las expresiones y requieren un postprocesado de la información, por lo que pasa un periodo desde que el usuario ha emitido la señal hasta que se traduce.

Compartir el artículo

stats