ciencia

Un decodificador lee los pensamientos grabados por un escáner cerebral

Gracias al desarrollo de una inteligencia artificial, este sistema semántico logró captar el sentido de las frases más que su literalidad.

Interés General

02/05/2023 - 00:00hs

Tal como cuenta un estudio publicado en la revista científica Nature Neuroscience, a tres sujetos les hicieron oír un pódcast del New York Times y monólogos de un popular programa anglosajón mientras les escaneaban el cerebro. Con un decodificador diseñado por ellos, científicos estadounidenses lograron convertir las gráficas del escáner cerebral no solo en frases completas, sino en textos que reproducían con gran fidelidad lo que habían oído. Según sus resultados, este decodificador que han llamado “semántico” fue capaz también de verbalizar lo que pensaban y, aun más, lo que les pasaba por la cabeza mientras veían cine mudo.

Desde comienzos de siglo, y en especial en la última década, se han producido grandes avances en el diseño de interfaces cerebro máquina (ICB). La mayoría buscaban que personas incapaces de hablar o de mover incluso todos sus músculos pudieran comunicarse. Pero la mayor parte de estos sistemas necesitan abrir el cráneo y colocar una serie de electrodos directamente en el cerebro. Otro enfoque, menos invasivo, se apoya en la técnica de imagen por resonancia magnética funcional (fMRI). Aquí, la interfaz acaba en un gorro lleno de electrodos que se coloca sobre la cabeza. Este gorro no registra la actividad neuronal directa, sino los cambios en el nivel de oxígeno en sangre que esta provoca. Esto planteaba problemas de resolución. Por un lado, por el acceso desde fuera y, por el otro, los cambios en aquel nivel se producen en intervalos de hasta 10 segundos y en ese lapso se pueden decir muchas palabras.

Para solventar estos problemas, un grupo de investigadores de la Universidad de Texas (Estados Unidos) se ha apoyado en un sistema de inteligencia artificial que sonará familiar a muchos: GPT, el mismo en el que se apoya el bot ChatGPT. Este modelo de lenguaje, desarrollado por el laboratorio de inteligencia artificial OpenAI, usa aprendizaje profundo para generar texto. En esta investigación, lo entrenaron con las imágenes fMRI del cerebro de tres personas a las que hicieron oír 16 horas de audios de un consultorio del New York Times y del programa Moth Radio Hour. De esta manera pudieron corresponder lo que veían con su representación en la cabeza. La idea es que, cuando volvieran a oír otro texto, el sistema pudiera ir anticipándolo basándose en los patrones de lo ya aprendido.

Noticias Relacionadas