Las emociones y
sentimientos que genera los seres humanos ya se pueden traducir en un sonido
audible. No suena igual la alegría más intensa que la pena más profunda. Lo
saben bien los científicos del Centro de Regulación Genómica (CRG) de Barcelona
que han desarrollado un sistema de comunicación pionero que convierte en tiempo
real las ondas eléctricas que se producen en el cerebro en toda una orquesta
polifónica según el tipo de emoción y la reacción que provoca en el cuerpo un
determinado sentimiento. El dispositivo está pensado para "dar voz" a
las personas con algún tipo dediscapacidad motora que
les impide comunicarse con facilidad con su entorno.
Aunque ya existen sistemas
de traducción de señales cerebrales, este es el primer prototipo que
convierte los impulsos eléctricos del cerebro en sonido en tiempo real y no precisa
de un control motor por parte del paciente —el movimiento de la retina de los
ojos, por ejemplo— para ponerlo en marcha. El sistema, denominado Brain
Polyphony, consta de un casco y un software. El proceso comienza colocando
el casco en la cabeza del individuo, que funciona como una interfaz que conecta
su cerebro con un software que traduce sus ondas cerebrales en
sonidos. "Este sistema explora la posibilidad de crear un sistema de
comunicación alternativa entre pacientes con parálisis
cerebral.
Así,sonificamos ondas
cerebrales para proveer de un medio de comunicación a las personas que no
pueden comunicarse", ha explicado esta mañana Mar Dierssen, jefa de grupo
en el CRG y responsable del proyecto.
A través del casco,
que se llamaEnobio y se conecta con el organismo mediante electrodos, los
científicos miden la actividad cerebral y cardíaca del paciente. Los sensores
calculan las emociones a partir de los patrones cerebrales, cardíacos,
musculares y de acelerometría que se generan en el organismo ante un
determinado sentimiento. El dispositivo recoge toda esta información y mide dos
parámetros emocionales: la valencia, que indica si el sentimiento es agradable
o no, y la arousal, que marca la intensidad de esa emoción. "A partir de
estos dos elementos somos capaces de mapear emociones concretas y
darles un sonido", ha apuntado David Ibáñez, investigador de la empresa
de innovación Starlab, que ha participado en el proyecto del CRG junto al
equipo de investigación Barcelona Research Art & Creation (BR::AC) de
la Universidad de Barcelona. Toda la información adquirida a través de la
interfaz se traslada a un ordenador con unsoftware que traduce, en tiempo
real, las emociones recogidas en sonidos.
Según cada caso,
los investigadores deciden si se ha de utilizar el patrón cerebral, el
cardíaco o el motor (o los tres a la vez); luego realizan un cálculo basal
(registran cuál es el estado neutro del paciente) y, a partir de ahí, comienzan
con el análisis de las reacciones registradas a partir de estímulos visuales y
auditivos en el ordenador.
Aunque el
dispositivo todavía se encuentra en fase piloto, los científicos ya han probado
el sistema con voluntarios sanos y dos personas con parálisis cerebral y, según
los investigadores, "los resultados han sido satisfactorios". Durante
el próximo año, el sistema Brain Polyphony será desarrollado completamente y
aplicado a 15 pacientes más para comprobar su rendimiento.