¿Máquinas que leen la mente?: Logran decodificar el lenguaje continuo a través de un nuevo interfaz de resonancia cerebral
Se trata de sistema de inteligencia artificial conocido como GPT que permite mejorar la capacidad de la tecnología de imagen por resonancia magnética funcional para leer y anticipar patrones en el cerebro.
Así es el implante que ''lee la mente'' que podría llegar para 2022
Terapia electroconvulsiva: ¿Esperanza o barbarie en el tratamiento de los pacientes con trastornos mentales graves?
Las interfaces cerebro-máquina (ICB) son una tecnología de vanguardia que tiene como objetivo permitir la comunicación directa entre el cerebro humano y un dispositivo tecnológico. Esta tecnología se ha desarrollado para ayudar a personas que padecen de discapacidades que limitan su capacidad de comunicación verbal y física, y también para mejorar el control de dispositivos electrónicos con la mente. Las ICB funcionan mediante la lectura de las señales eléctricas emitidas por el cerebro humano. Los dispositivos que se utilizan para capturar estas señales pueden ser invasivos o no invasivos. Los dispositivos invasivos, como los electrodos implantados en el cerebro, son más precisos pero también más peligrosos y costosos. Así, en los últimos años, ha habido importantes avances importantes avancesen el diseño de interfaces cerebro-máquina (ICB), que tienen como objetivo permitir la comunicación para personas con discapacidades de habla o de movimiento. La mayoría de estas tecnologías implican la implantación de electrodos en el cerebro, lo que puede ser muy invasivo y no es práctico para muchos pacientes.
Por otro lado, los dispositivos no invasivos, como los electroencefalogramaselectroencefalogramas (EEG), son más seguros pero menos precisos. En este sentido, un enfoque menos invasivo se basa en la técnica de imagen por resonancia magnética funcional (fMRI), que utiliza un gorro lleno de electrodos para medir los cambios en el nivel de oxígeno en sangre en el cerebro, lo que se relaciona con la actividad cerebral. Sin embargo, este método tiene limitaciones de resolución y velocidad, lo que dificulta la comunicación en tiempo real.
Una nueva técnica sin precedentes
Siguiendo el camino de estos avances, un equipo de investigadores de la Universidad de Texas ha utilizado un sistema de inteligencia artificial conocido como GPT (Generative Pre-trained Transformer), el mismo que se utiliza para el bot ChatGPT, para mejorar la capacidad de la tecnología de imagen por resonancia magnética funcional (fMRI) de leer y anticipar patrones en el cerebro. Los investigadores entrenaron el modelo GPT con imágenes fMRI del cerebro de tres individuos mientras escuchaban 16 horas de audio de programas de radio populares.
Al correlacionar la actividad cerebral con el contenido de audio, los investigadores pudieron crear un modelo que podría anticipar los patrones de actividad cerebral en respuesta a diferentes estímulos de audio. De este modo, los investigadores lograron establecer una correspondencia entre lo que los participantes veían y su representación mental. La intención era que, al escuchar otro texto, el sistema pudiera anticipar su contenido basándose en los patrones que ya habían sido aprendidos.
''Se trata del GPT original, no como el nuevo [ChatGPT se apoya en la última versión de GPT, la 4]. Recopilamos una tonelada de datos y luego construimos este modelo, que predice las respuestas cerebrales a las historias'', dijo en una conferencia vía web la pasada semana Alexander Huth, neurocientífico de la universidad tejana. Con este procedimiento, el descodificador propone secuencias de palabras '' y para cada una de esas palabras que pensamos que podrían venir a continuación, podemos medir lo bien que suena esa nueva secuencia y, al final, vemos si coincide con la actividad cerebral que observamos'', detallan.
Para los investigadores, es de suma importancia que estemos hablando de frases largas, ya que, aunque ya había habido otros intentos de descodificadores, algunos invasivos y otros no, solo eran capaces de identificar palabras o frases cortas. Esta técnica de inteligencia artificial podría tener aplicaciones en la mejora de las interfaces cerebro-máquina, especialmente en la comunicación en tiempo real.
Según explican los propios autores del estudio, "en la actualidad, los descodificadores que reconstruyen el lenguaje continuo utilizan grabaciones invasivas de electrodos implantados quirúrgicamente, mientras que los descodificadores que usan grabaciones no invasivas solo pueden identificar estímulos entre un pequeño conjunto de letras, palabras o frases".
Las interfaces cerebrales anteriores se enfocaban en registrar la actividad cerebral en las áreas motoras responsables del control de la mecánica del habla, como los movimientos de la boca, la laringe o la lengua. Su función era descodificar la forma en que una persona intentaba mover su boca para pronunciar algo. En contraste, el sistema desarrollado en este estudio trabaja en un nivel diferente, más enfocado en el nivel de las ideas, la semántica y el significado. Por lo tanto, en lugar de registrar las palabras exactas que alguien escucha o pronuncia, el sistema se enfoca en el sentido de lo que se está comunicando. Para lograr esto, aunque las resonancias registran la actividad de varias zonas cerebrales, los investigadores se centraron más en las áreas relacionadas con la audición y el lenguaje.
¿Una invasión de la privacidad?
Este avance presenta un nuevo panorama en el que estaríamos más cerca de poder ''leer la mente''. Un hito que resultaría, según expresan los investigadores, ''fabuloso''. Los científicos están completamente convencidos de que la información semántica se utilizará en las interfaces cerebro máquina para hablar en el futuro. Pero, ¿invade esto los patrones morales? A este respecto, existen todavía muchas preocupaciones éticas y de privacidad asociadas con la idea de que una máquina pueda leer los pensamientos de las personas, lo que hace que sea importante abordar cuidadosamente estos temas a medida que se desarrollan nuevas tecnologías en este campo.
En este contexto, el equipo sostiene que el modelo entrenado con los datos de una persona no descodifica bien los datos de otra, lo cual indicaría que se requiere la cooperación del sujeto para que funcione. Explican los investigadores que, "como las interfaces cerebro-computadora deben respetar la privacidad mental, probamos si la decodificación exitosa requiere la cooperación del sujeto, y descubrimos que se requiere la cooperación del sujeto tanto para entrenar como para aplicar el decodificador".
También te puede interesar