Nos dirigimos hacia un futuro en el que los dispositivos podrán leer nuestros pensamientos. Se ven indicaciones de esto en todas partes, desde las interfaces cerebro-computadora hasta algoritmos que detectan emociones a partir de escaneos faciales. Y aunque la tecnología sigue siendo imperfecta, se acerca cada vez más: ahora, un equipo de científicos dice que ha desarrollado un modelo que puede generar descripciones de lo que el cerebro de las personas está viendo simplemente analizando un escaneo de su actividad cerebral.
Están llamando a la técnica «subtitulado mental», y puede representar una manera efectiva de transcribir lo que alguien está pensando, con resultados impresionantemente comprensivos y precisos.
«Esto es difícil de hacer», dijo Alex Huth, coautor de un nuevo estudio en la revista Science Advances, y un neurocientífico computacional de la Universidad de California, Berkeley, a Nature. «Es sorprendente que puedas obtener tanto detalle».
Las implicaciones de tal tecnología son una espada de doble filo: por un lado, podría dar voz a personas que luchan por hablar debido a un derrame cerebral, afasia y otras dificultades médicas, pero por otro lado, puede amenazar nuestra privacidad mental en una era en la que muchas otras facetas de nuestras vidas son vigiladas y codificadas. Pero el equipo enfatiza que el modelo no puede decodificar tus pensamientos privados. «Nadie ha demostrado que puedas hacer eso, todavía», agregó Huth.
La nueva técnica de los investigadores se basa en varios modelos de IA. Para entrenarlos, primero un modelo profundo de lenguaje analizó los subtítulos en texto de más de 2,000 videos cortos, generando una «firma de significado» única. Luego, otra herramienta de IA fue entrenada con los escaneos cerebrales por MRI de seis participantes mientras veían los mismos videos, haciendo coincidir la actividad cerebral con las firmas.
Combinados, el decodificador cerebral resultante podría analizar un nuevo escaneo cerebral de alguien viendo un video y predecir la firma de significado, mientras que un generador de texto de IA buscaba oraciones que coincidieran con la firma predicha, creando docenas de descripciones candidatas y refinándolas en el camino.
Aunque suena como una elaborada cadena de adivinanzas, los resultados fueron notablemente descriptivos y mayormente acertados. Según Nature, al analizar la actividad cerebral de un participante que vio un video de alguien saltando desde la cima de una cascada, el modelo de IA inicialmente predijo la cadena «flujo primaveral», lo refinó a «agua cayendo rápidamente desde la altura» en la décima adivinanza, y finalmente llegó a «una persona salta sobre una cascada profunda en una cresta montañosa» en la adivinanza número 100.
En general, las descripciones de texto generadas lograron un 50 por ciento de precisión en identificar el video correcto de entre 100 posibilidades. Eso es significativamente más alto que el azar, que sería de alrededor de uno por ciento, e impresionante en el contexto de esencialmente adivinar pensamientos coherentes a partir de patrones cerebrales.
Los investigadores no son los únicos en afirmar que han desarrollado una técnica para escanear pensamientos. Pero otros intentos solo produjeron una descripción cruda de palabras clave en lugar de proporcionar contexto detallado, o usaron modelos de IA para formar directamente las oraciones, difuminando las líneas entre cuáles eran los pensamientos reales de la persona y qué era generado por IA.
Otras técnicas eran extremadamente imprácticas. Meta, por ejemplo, creó un dispositivo que te permite escribir texto con tu cerebro combinando un modelo de IA de aprendizaje profundo con un escáner de magnetoencefalografía. Pero tal máquina es tanto prohibitivamente cara y grande, y solo se puede usar dentro de una sala protegida del campo magnético de la Tierra.
Aunque este último enfoque dependió de los escaneos de una máquina de MRI, que no es menos impráctica para el uso diario, los investigadores esperan que su enfoque pueda combinarse con implantes cerebrales que proporcionarían las lecturas.
«Si podemos hacer eso usando estos sistemas artificiales, tal vez podamos ayudar a estas personas con dificultades de comunicación», dijo Huth a Nature.
Más sobre tecnología cerebral: Neuralink Jefe de Cirugía dice que la interfaz Robot-Humano está sucediendo «Muy Pronto».
Con información de https://futurism.com/health-medicine/scientists-transcribe-thoughts-mri-scan