Con un entrenamiento extenso, los sujetos aprendieron a usar las sensaciones táctiles para interpretar escenas visuales con precisión, comenzando, después de aproximadamente una hora de entrenamiento, con la capacidad de discriminar líneas verticales, horizontales, diagonales y curvas, y luego reconocer formas. Luego de 10 horas de entrenamiento, todos pudieron reconocer objetos domésticos comunes, discernir sombras y perspectivas e incluso identificar a otras personas por sus rasgos faciales.3
Bach-y-Rita argumentó que esta capacidad se debía a mecanismos “transmodales”, por los cuales la información que normalmente es transmitida por un sentido, como la visión, de alguna manera es transformada y transmitida por otro, como el tacto o el sonido. Desde entonces, los investigadores han documentado numerosos ejemplos de plasticidad intermodal, utilizando técnicas modernas de neuroimagen como la resonancia magnética funcional (IRMf) y la estimulación magnética transcraneal (EMT).
Los estudios de imágenes cerebrales revelan que la corteza visual primaria se activa cuando las personas ciegas leen braille, lo que requiere un control motor fino y discriminación táctil para reconocer los patrones de puntos elevados. Esta activación está asociada con una mayor actividad en las regiones visuales inferiores involucradas en el reconocimiento de forma y con una actividad reducida en el área somatosensorial, en comparación con las personas videntes. El mismo patrón se encuentra no solo en personas que nacieron ciegas y aquellas que perdieron la vista a una edad temprana, sino también en aquellas que se quedaron ciegas más adelante en la vida.
La interferencia con la actividad cortical visual, por ejemplo mediante el uso de EMT, impide la percepción táctil en las personas ciegas pero no en las personas videntes del grupo control, lo que confirma que la actividad en la corteza visual está relacionada con el procesamiento de la información táctil, en lugar de ser mera coincidencia.
Las personas ciegas también pueden aprender a navegar por ecolocalización, haciendo clic con la lengua o tocando con los pies, y utilizando información en los ecos que regresan para percibir los aspectos físicos de su entorno. Esto requiere una gran cantidad de entrenamiento, pero aquellos que se vuelven expertos en ello pueden usar la ecolocalización para realizar acciones extremadamente complejas que la mayoría de nosotros no podríamos imaginar sin ver, como jugar videojuegos o andar en bicicleta. Y cuando las personas ciegas se ecolocan, la información del sonido se procesa en partes visuales en lugar de auditivas del cerebro.4, 5
El sistema visual a menudo se divide en dos vías distintas que se ejecutan en paralelo a través del lóbulo occipital en la parte posterior del cerebro: una secuencia superior que procesa la información espacial (la vía “dónde”) y una inferior involucrada en el reconocimiento de objetos (la vía “qué”). Esta organización parece preservarse en los ciegos: cuando las personas ciegas aprenden a ecolocar, la parte superior de la corteza visual se activa cuando están localizando objetos, y la parte inferior cuando los están identificando.6
Figura 2. Los lóbulos del cerebro. En sentido horario, de izquierda a derecha: lóbulo frontal, lóbulo parietal, lóbulo occipital, lóbulo temporal.
Por lo tanto, cuando se le priva de las entradas sensoriales que normalmente recibe, la corteza visual puede cambiar de roles y procesar otros tipos de información sensorial. Aún más notable, puede adaptarse de tal manera que realice otras funciones no sensoriales, como el lenguaje. El mismo tipo de experimentos de escaneo cerebral muestra que esta región del cerebro se activa cuando las personas ciegas generan verbos, escuchan el lenguaje hablado y realizan tareas de memoria verbal y procesamiento verbal de alto nivel.
Las personas ciegas superan a los sujetos videntes en estas tareas, y el grado de activación en sus cortezas visuales está estrechamente relacionado con su desempeño en las pruebas de memoria verbal. Estos estudios también muestran que la lectura del braille activa preferentemente el extremo frontal de la corteza visual, mientras que el lenguaje activa la región posterior, y algunos encuentran que la corteza visual izquierda se vuelve más activa que la derecha durante las tareas del lenguaje, posiblemente porque los centros del lenguaje generalmente se encuentran en el hemisferio izquierdo. Y al igual que interferir con la actividad cortical visual interrumpe la capacidad de las personas ciegas para procesar las sensaciones táctiles y comprender el braille, también afecta su desempeño en las tareas de memoria verbal.7
Los cerebros de las personas sordas también muestran cambios plásticos importantes. En las personas oyentes, la información auditiva de los oídos es procesada por las cortezas auditivas en los lóbulos temporales. Sin embargo, en las personas que nacen sordas, estas mismas áreas del cerebro se activan en respuesta a estímulos visuales. Las personas sordas también parecen tener una visión periférica mejorada. Esto está relacionado con un aumento en el área general del disco óptico, donde las fibras del nervio óptico salen del ojo en su camino hacia el cerebro y se engrosan alrededor de sus bordes. También sugiere que el flujo “dónde” de la vía visual es más fuerte.
La neuroplasticidad en personas sordas no se limita a los sistemas visuales y auditivos. Utilizando imágenes de tensor de difusión (ITD) para visualizar la conectividad cerebral, los investigadores han encontrado que la sordera se asocia con cambios importantes en las vías neuronales de largo alcance, especialmente entre las áreas sensoriales de la corteza cerebral y una estructura subcortical llamada tálamo.
El tálamo tiene muchas funciones importantes, particularmente en la transmisión de información de los órganos sensoriales a la región cortical apropiada, regulando así el flujo de información entre las diferentes regiones de la corteza. Las personas sordas exhiben cambios en la estructura microscópica de las conexiones de tálamo-corteza en cada lóbulo del cerebro, en comparación con las personas oyentes. Por lo tanto, la sordera parece inducir cambios plásticos en todo el cerebro que alteran profundamente la forma en que la información fluye a través del cerebro.8
Con los avances tecnológicos, los dispositivos de sustitución sensorial han recorrido un largo camino desde el engorroso artilugio de Bach-y-Rita. En lugar de usarlos solo como herramientas experimentales, muchos grupos de investigación están desarrollando estos dispositivos como prótesis que ayudan a las personas ciegas y sordas a compensar su pérdida sensorial, y en junio de 2015 uno de estos dispositivos fue aprobado por la Administración de Drogas y Alimentos de Estados Unidos (FDA). El BrainPort V100 es esencialmente una versión miniatura del aparato de Bach-y-Rita, que consiste en una cámara de video montada en un par de gafas de sol y una serie de electrodos de 20 x 20 instalados en una pequeña pieza de plástico plana que se coloca en el boca. El software de la computadora traduce imágenes visuales de la cámara y las transmite a los electrodos, de modo que se perciben como un patrón de sensaciones de hormigueo en la lengua. En las pruebas, aproximadamente el 70% de las personas ciegas aprenden a usar el dispositivo para reconocer objetos después de aproximadamente un año de entrenamiento.
Procesamiento transversal
e integración multisensorial
Como muestran los estudios de ceguera y sordera, la corteza cerebral tiene una notable capacidad de plasticidad, y la localización de la función cerebral no es tan estricta como los neurólogos del siglo XIX lo creían. Las regiones que normalmente están especializadas para realizar una función específica pueden cambiar roles y procesar otros tipos de información, y se ha demostrado que la corteza visual en particular es capaz de realizar una variedad de funciones no visuales.
En circunstancias normales, las vías sensoriales del cerebro no están completamente separadas, sino que están interconectadas y, por lo tanto, pueden interactuar e influenciarse entre sí de varias maneras. Y aunque la mayoría de las áreas sensoriales primarias se especializan en el procesamiento de información de un órgano sensorial particular, la mayoría de sus socios inferiores son las llamadas áreas de asociación, que combinan varios tipos de información en un proceso llamado integración multisensorial.
Las regiones que normalmente están especializadas para realizar una función específica pueden cambiar roles y procesar
|