El lenguaje humano puede ayudar a los ciegos a "ver" el mundo. así es como

¿Alguna vez te has preguntado por qué besar es mejor que tomarse de la mano? La lengua es un equipo realmente asombroso, aunque notoriamente difícil de estudiar, debido a su ubicación dentro de la boca.

Evidentemente nos da acceso al maravilloso mundo del gusto, pero sobre todo tiene una mayor sensibilidad al tacto que la yema del dedo. Sin ella, no podemos hablar, cantar, respirar eficientemente o tragar deliciosas bebidas.

Entonces, ¿por qué no lo usamos aún más?

Mi nuevo estudio investiga cómo aprovechar al máximo este extraño órgano, potencialmente como una interfaz para ayudar a las personas con discapacidad visual a navegar e incluso hacer ejercicio. Me doy cuenta de que esto puede sonar sorprendente, pero tenga paciencia.

Mi investigación es parte de un campo conocido como "reemplazo sensorial", una rama de la ciencia interdisciplinaria que combina psicología, neurociencia, informática e ingeniería para desarrollar "dispositivos de reemplazo sensorial" (conocidos como SSD).

Los SSD convierten la información sensorial de un sentido a otro. Por ejemplo, si el dispositivo está diseñado para una persona con discapacidad visual, esto generalmente significa convertir la información visual de un video en sonido o tacto.

Índice de contenidos
  1. Haz dibujos en la lengua
  2. Atención al idioma

Haz dibujos en la lengua

BrainPort, desarrollado por primera vez en 1998, es una de esas tecnologías. Convierte la transmisión de video de una cámara en patrones en movimiento de estimulación eléctrica en la superficie de la lengua.

La "pantalla de la lengua" (un pequeño dispositivo con forma de piruleta) consta de 400 electrodos diminutos, y cada electrodo corresponde a un píxel de la señal de video de una cámara. Cree una pantalla táctil de baja resolución en la pestaña que coincida con la salida de la cámara.

La tecnología se puede utilizar para ayudar a las víctimas de accidentes cerebrovasculares a mantener su sentido del equilibrio. Y en 2015, la Administración de Drogas y Alimentos de los EE. UU. aprobó su uso como ayuda para los ciegos.

Imagina sostener tu mano frente a una cámara y sentir una pequeña mano aparecer en la punta de tu lengua al mismo tiempo. Parece un poco como si alguien estuviera haciendo dibujos en tu lengua haciendo estallar caramelos.

Aunque BrainPort existe desde hace años, no ha visto mucha absorción en el mundo real, a pesar de ser diez veces más barato que un implante de retina. Uso BrainPort para probar cómo funciona la atención humana en la superficie de la lengua, para ver si las diferencias en la percepción podrían estar causando esto.

En la investigación psicológica, existe un método famoso para evaluar la atención, llamado el paradigma Posner Cueing, llamado así por el psicólogo estadounidense Mike Posner, quien lo desarrolló en la década de 1980 para medir la atención visual.

Cuando digo atención, no me refiero a 'tiempo de atención'. La atención se refiere al conjunto de procesos que traen cosas del entorno a nuestra conciencia. Posner descubrió que nuestra atención puede ser estimulada por estímulos visuales.

Si vemos brevemente algo moviéndose por el rabillo del ojo, el foco está en esa área. Probablemente evolucionamos de esta manera para reaccionar rápidamente a las serpientes peligrosas que acechan en las esquinas y en los bordes de nuestro campo de visión.

Este proceso también ocurre entre los sentidos. Si alguna vez te sentaste en el jardín de un pub en el verano y escuchaste el temido zumbido de una avispa acercándose a tu oído, tu atención se dirige a ese lado de tu cuerpo muy rápidamente.

El sonido de la avispa captura su atención auditiva a la posición general de la avispa que potencialmente se aproxima para que el cerebro pueda asignar rápidamente la atención visual para identificar la posición exacta de la avispa y la atención táctil para esquivar o alejarse rápidamente de la avispa.

Esto es lo que llamamos atención "intermodal" (la visión es un modo de sensación, el audio otro): las cosas que aparecen en un sentido pueden afectar a otros sentidos.

Atención al idioma

Mis colegas y yo hemos desarrollado una variación del paradigma Posner Cueing para ver si el cerebro puede asignar atención táctil a la superficie de la lengua de la misma manera que las manos u otros modos de atención.

Sabemos mucho sobre la atención visual y la atención táctil en las manos y otras partes del cuerpo, pero no tenemos idea si este conocimiento se traduce al lenguaje.

Esto es importante porque BrainPort está diseñado, construido y vendido para ayudar a las personas a "ver" a través del lenguaje. Pero debemos entender si 'ver' con la lengua es lo mismo que ver con los ojos.

La respuesta a estas preguntas, como casi todo en la vida, es que es complicado.

La lengua responde a la información recordada de la misma manera que lo hacen las manos o los ojos, pero a pesar de la increíble sensibilidad de la lengua, los procesos de atención son algo limitados en comparación con los otros sentidos. Es muy fácil sobreestimular la lengua, provocando una sobrecarga sensorial que puede dificultar escuchar lo que está pasando.

También encontramos que los procesos de atención en la lengua pueden verse afectados por el sonido. Por ejemplo, si un usuario de BrainPort escucha un sonido a la izquierda, puede identificar más fácilmente la información del lado izquierdo del idioma. Esto podría ayudar a guiar la atención y reducir la sobrecarga sensorial con BrainPort cuando se combina con una interfaz auditiva.

En términos del uso real de BrainPort, esto se traduce en administrar la complejidad de la información visual que se reemplaza y, si es posible, usar otro sentido para ayudar a compartir parte de la carga sensorial.

El uso de BrainPort de forma aislada puede ser demasiado desafiante para proporcionar información confiable y podría mejorarse potencialmente mediante el uso conjunto de otras tecnologías de asistencia, como vOICe.

Estamos utilizando estos hallazgos para desarrollar un dispositivo que ayude a los escaladores con discapacidad visual a navegar mientras escalan.

Para evitar la sobrecarga de información, utilizamos el aprendizaje automático para identificar las presas de escalada y filtrar la información menos relevante.

También estamos explorando la posibilidad de usar el sonido para indicar dónde podría estar el próximo agarre, y luego usar la retroalimentación de la lengua para ubicar con precisión el agarre.

Con algunas modificaciones, esta tecnología podría eventualmente convertirse en una herramienta más confiable para ayudar a las personas ciegas, sordas o ciegas a navegar. También puede ayudar a las personas parapléjicas que no pueden usar sus manos, navegar o comunicarse de manera más eficiente.

Mike Richardson, Investigador Asociado en Psicología, Universidad de Bath.

Este artículo fue publicado originalmente por The Conversation. Lea el artículo original.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.

Subir
Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para mostrarte publicidad relacionada con sus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Configurar y más información
Privacidad