Zijiao Chen puede leer tu mente, con la ayuda de una poderosa inteligencia artificial y una máquina fMRI.

Chen, estudiante de doctorado en la Universidad Nacional de Singapur, es parte de un equipo de investigadores que han demostrado que pueden decodificar escáneres cerebrales humanos para decir lo que una persona imagina en su mente, según un artículo publicado en noviembre.

Para ello, su equipo, compuesto por investigadores de la Universidad Nacional de Singapur, la Universidad China de Hong Kong y la Universidad de Stanford, utilizó escáneres cerebrales de los participantes mientras observaban más de 1000 imágenes: un camión de bomberos rojo, un edificio gris , una jirafa comiendo hojas, dentro de una máquina de resonancia magnética funcional, o fMRI, que registró las señales cerebrales resultantes a lo largo del tiempo. Luego, los investigadores enviaron estas señales a través de un modelo de IA para entrenarlo para asociar ciertos patrones cerebrales con ciertas imágenes.

Más tarde, cuando los sujetos vieron nuevas imágenes en la resonancia magnética funcional, el sistema detectó las ondas cerebrales del paciente, generó una descripción abreviada de lo que cree que correspondían a esas ondas cerebrales y usó un generador de imágenes AI para producir un facsímil de la mejor suposición de la imagen que vio el participante. .

Los resultados son sorprendentes y de ensueño. Una imagen de una casa y un camino de entrada dio como resultado una combinación de colores similar de un dormitorio y una sala de estar. Una torre de piedra adornada que se mostró a un participante del estudio generó imágenes de una torre similar, con ventanas ubicadas en ángulos irreales. Un oso se ha convertido en una criatura extraña, peluda, parecida a un perro.

La imagen generada coincidía con los atributos (color, forma, etc.) y el significado semántico de la imagen original aproximadamente el 84 % de las veces.

Los investigadores están trabajando para convertir la actividad cerebral en imágenes como parte de un estudio de análisis cerebral de IA en la Universidad Nacional de Singapur.Noticias BNC

Entonces que experiencia nécessite de former le modèle sur l’activité cérébrale de chaque participant pendant environ 20 heures avant de pouvoir déduire des images à partir des données d’IRMf, les chercheurs pensent que dans une décennie seulement, la technologie pourrait être utilisée sur n’importe qui , en cualquier lugar.

«Podría ayudar a los pacientes discapacitados a recuperar lo que ven, lo que piensan», dijo Chen. En el caso ideal, agregó Chen, los humanos ni siquiera necesitarán usar teléfonos celulares para comunicarse. «Solo podemos pensar».

Los resultados solo involucraron a un puñado de sujetos de estudio, pero los hallazgos sugieren que las grabaciones cerebrales no invasivas del equipo podrían ser un primer paso hacia una decodificación más precisa y eficiente de imágenes desde el interior del cerebro.

Los investigadores han estado trabajando en la tecnología para decodificar la actividad cerebral durante más de una década. Y muchos investigadores de IA están trabajando actualmente en varias aplicaciones de IA relacionadas con la neurología, incluidos proyectos similares como los de Meta y el Universidad de Texas en Austin decodificar el habla y el lenguaje.

Jack Gallant, científico de la Universidad de California, Berkeley, comenzó a estudiar la decodificación del cerebro hace más de una década utilizando un algoritmo diferente. Dijo que la velocidad a la que se desarrolla esta tecnología depende no solo del modelo utilizado para decodificar el cerebro, en este caso, la IA, sino también de los dispositivos de imágenes cerebrales y la cantidad de datos disponibles para los investigadores. El desarrollo de máquinas fMRI y la recopilación de datos plantean obstáculos para cualquiera que estudie la decodificación cerebral.

«Es lo mismo que ir a Xerox PARC en la década de 1970 y decir: ‘Mira, todos vamos a tener PC en nuestros escritorios'», dijo Gallant.

Si bien podía ver que la decodificación cerebral se usaría en el campo de la medicina en la próxima década, dijo que su uso en el público en general aún estaba a décadas de distancia.

Aun así, es lo último en un auge tecnológico de IA que ha capturado la imaginación del público. Los medios generados por IA, desde imágenes y voces hasta disertaciones y sonetos de Shakespeare, han demostrado algunos de los avances que la tecnología ha logrado en los últimos años, especialmente porque los llamados modelos transformadores han hecho posible proporcionar grandes cantidades de datos a la IA. para que pueda aprender patrones rápidamente.

El equipo de la Universidad Nacional de Singapur utilizó un software de inteligencia artificial generador de imágenes llamado Stable Diffusion, que se ha adoptado en todo el mundo para producir imágenes estilizadas de gatos, amigos, naves espaciales y casi cualquier cosa que una persona pueda pedir.

El software permite a la profesora asociada Helen Zhao y sus colegas resumir una imagen usando un vocabulario de color, forma y otras variables, y hacer que Stable Diffusion produzca una imagen casi instantáneamente.

Las imágenes producidas por el sistema son temáticamente fieles a la imagen original, pero no coinciden fotográficamente, quizás porque la percepción de la realidad de cada persona es diferente, dijo.

«Cuando mires la hierba, tal vez yo piense en las montañas, luego tú pensarás en las flores y otras personas pensarán en el río», dijo Zhao.

La imaginación humana, explicó, puede causar diferencias en la salida de imágenes. Pero las diferencias también pueden ser el resultado de la IA, que puede arrojar distintas imágenes del mismo conjunto de entradas.

El modelo de IA funciona con «tokens» visuales para producir imágenes de las señales cerebrales de una persona. Entonces, en lugar de un vocabulario de palabras, se le da un vocabulario de colores y formas que se combinan para crear la imagen.

Imágenes generadas a partir de IA.
Imágenes generadas a partir de IA.Cortesía de la Universidad Nacional de Singapur

Pero el sistema tiene que ser entrenado duro en las ondas cerebrales de una persona específica, por lo que no está cerca de un despliegue generalizado.

«La verdad es que todavía hay mucho margen de mejora», dijo Zhao. «Básicamente, tienes que entrar en un escáner y mirar miles de imágenes y luego podemos hacer la predicción sobre ti».

Todavía no es posible traer extraños de las calles para leer sus mentes, «pero estamos tratando de generalizar sobre todos los temas en el futuro», dijo.

Al igual que muchos desarrollos recientes de IA, la tecnología de lectura del cerebro plantea preocupaciones éticas y legales. Algunos expertos dicen que en las manos equivocadas, el modelo de IA podría usarse para interrogatorios o vigilancia.

“Creo que hay una línea muy fina entre lo que podría ser empoderador y opresivo”, dijo Nita Farahany, profesora de derecho y ética en nuevas tecnologías en la Universidad de Duke. «A menos que avancemos, creo que es más probable que veamos las implicaciones opresivas de la tecnología».

Le preocupa que la IA de decodificación cerebral pueda llevar a las empresas a mercantilizar la información o a que los gobiernos abusen de ella, y describe productos de detección cerebral que ya están en el mercado o que están a punto de llegar y que podrían crear un mundo en el que no solo compartamos nuestras lecturas cerebrales. , pero juzgado por ellos.

«Es un mundo en el que no solo se recopila su actividad cerebral y se monitorea su estado cerebral, desde la atención hasta el enfoque», dijo, «sino que las personas son contratadas, despedidas y promovidas en función de lo que muestran sus métricas cerebrales».

“Ya se está convirtiendo en la corriente principal y necesitamos la gobernabilidad y los derechos ahora antes de que realmente se convierta en algo que sea parte de la vida diaria de todos”, dijo.

Los investigadores de Singapur continúan desarrollando su tecnología, con la esperanza de reducir primero la cantidad de horas que un sujeto tendrá que pasar en una máquina de resonancia magnética funcional. Luego ajustarán el número de sujetos que evalúan.

«Creemos que es posible en el futuro», dijo Zhao. «Y con [a larger] La cantidad de datos disponibles en un modelo de aprendizaje automático producirá un rendimiento aún mejor.