Las redes neuronales artificiales modelan el procesamiento facial en el autismo

Un nuevo modelo computacional podría explicar las diferencias en el reconocimiento de emociones faciales

Las redes neuronales artificiales modelan el procesamiento facial en el autismo
Las redes neuronales artificiales modelan el procesamiento facial en el autismo
22 junio 2022 | 00:00 h

Muchos de nosotros reconocemos fácilmente las emociones expresadas en los rostros de los demás. Una sonrisa puede significar felicidad, mientras que fruncir el ceño puede indicar ira.

Las personas con autismosuelen tener más dificultades con esta tarea. No está claro el porqué, pero una nueva investigación, publicada el 15 de junio en The Journal of Neuroscience , arroja luz sobre el funcionamiento interno del cerebro para sugerir una respuesta y lo hace a través de una herramienta que abre nuevos caminos para modelar el cómputo en nuestra cabeza: la inteligencia artificial.

Los investigadores han sugerido principalmente dos áreas del cerebro donde podrían estar las diferencias. Una región en el costado del cerebro de los primates (incluido el humano) llamada corteza temporal inferior (IT) contribuye al reconocimiento facial. Mientras tanto, una región más profunda llamada amígdala recibe información de la corteza de TI y otras fuentes y ayuda a procesar las emociones.

Ante ello, Kohitij Kar, científico investigador en el laboratorio del profesor del MIT James DiCarlo, comenzó analizando los datos proporcionados por otros dos investigadores: Shuo Wang de la Universidad de Washington en St. Louis y Ralph Adolphs de Caltech.

Un nuevo modelo computacional podría explicar las diferencias en el reconocimiento de emociones faciales

En un experimento, mostraron imágenes de rostros a adultos con autismo. Las imágenes habían sido generadas por software para variar en un espectro de miedo a felicidad, y los participantes juzgaron, rápidamente, si las caras representaban felicidad. En comparación con los controles, los adultos con autismo requerían niveles más altos de felicidad en las caras para reportarlos como felices.

MODELANDO EL CEREBRO

Kar, quien también es miembro del Centro de Cerebros, Mentes y Máquinas, entrenó una red neuronal artificial, una función matemática compleja inspirada en la arquitectura del cerebro, para realizar la misma tarea. La red contenía capas de unidades que se asemejan más o menos a las neuronas biológicas que procesan la información visual. Estas capas procesan la información a medida que pasa de una imagen de entrada a un juicio final que indica la probabilidad de que la cara sea feliz. Kar descubrió que el comportamiento de la red coincidía más con los controles neurotípicos que con los adultos autistas.

La red también cumplía otras dos funciones interesantes. Primero, Kar podría diseccionarlo. Se quitó las capas y volvió a probar su desempeño, midiendo la diferencia entre qué tan bien coincidía con los controles y qué tan bien coincidía con los adultos autistas. Esta diferencia fue mayor cuando la salida se basó en la última capa de red. El trabajo anterior ha demostrado que esta capa imita de alguna manera la corteza de TI, que se encuentra cerca del final de la tubería de procesamiento visual ventral del cerebro de los primates. Los resultados de Kar implican a la corteza TI en la diferenciación de los controles neurotípicos de los adultos autistas.

La otra función es que la red puede usarse para seleccionar imágenes que podrían ser más eficientes en los diagnósticos de autismo. Si la diferencia entre la similitud de la red con los controles neurotípicos frente a los adultos autistas es mayor al juzgar un conjunto de imágenes frente a otro conjunto de imágenes, el primer conjunto podría usarse en la clínica para detectar rasgos de comportamiento autista. “Estos son resultados prometedores”, dice Kar. Aparecerán mejores modelos del cerebro, "pero a menudo en la clínica, no necesitamos esperar por el mejor producto absoluto".

A continuación, Kar evaluó el papel de la amígdala. Una vez más, utilizó datos de Wang y sus colegas. Habían usado electrodos para registrar la actividad de las neuronas en la amígdala de personas que se sometían a cirugía por epilepsia mientras realizaban la tarea de la cara. El equipo descubrió que podían predecir el juicio de una persona en función de la actividad de estas neuronas. Kar volvió a analizar los datos, esta vez controlando la capacidad de la capa de red similar a la corteza de TI para predecir si una cara realmente estaba feliz. Ahora bien, la amígdala proporcionó muy poca información propia. Kar concluye que la corteza TI es la fuerza impulsora detrás del papel de la amígdala para juzgar las emociones faciales.

REDES RUIDOSAS

Finalmente, Kar entrenó redes neuronales separadas para que coincidieran con los juicios de los controles neurotípicos y los adultos autistas. Observó las fortalezas o "pesos" de las conexiones entre las capas finales y los nodos de decisión. Los pesos en la red que coincidían con los adultos autistas, tanto los positivos o "excitadores" como los negativos o "inhibidores", eran más débiles que en la red que coincidía con los controles neurotípicos. Esto sugiere que las conexiones neuronales sensoriales en adultos autistas pueden ser ruidosas o ineficientes.

Para probar aún más la hipótesis del ruido, que es popular en el campo, Kar agregó varios niveles de fluctuación a la actividad de la capa final en la red que modela adultos autistas. Dentro de un cierto rango, el ruido agregado aumentó en gran medida la similitud entre su desempeño y el de los adultos autistas. Agregar ruido a la red de control hizo mucho menos para mejorar su similitud con los participantes de control. Esto sugiere además que la percepción sensorial en las personas autistas puede ser el resultado de un cerebro llamado "ruidoso".

POTENCIA DE CÁLCULO

De cara al futuro, Kar ve varios usos para los modelos computacionales de procesamiento visual. Se pueden impulsar aún más, proporcionando hipótesis que los investigadores podrían probar en modelos animales. “Creo que el reconocimiento de emociones faciales es solo la punta del iceberg”, dice Kar. También se pueden utilizar para seleccionar o incluso generar contenido de diagnóstico.

La inteligencia artificial podría usarse para generar contenido como películas y materiales educativos que involucren de manera óptima a niños y adultos con autismo. Incluso se podrían modificar los píxeles faciales y otros píxeles relevantes en lo que las personas autistas ven en las gafas de realidad aumentada, trabajo que Kar planea realizar en el futuro.

En última instancia, dice Kar, el trabajo ayuda a validar la utilidad de los modelos computacionales, especialmente las redes neuronales de procesamiento de imágenes.

Los contenidos de ConSalud están elaborados por periodistas especializados en salud y avalados por un comité de expertos de primer nivel. No obstante, recomendamos al lector que cualquier duda relacionada con la salud sea consultada con un profesional del ámbito sanitario.