Los modelos de lenguaje grande nunca serán inteligentes, afirma un experto.

¿Están las compañías tecnológicas al borde de crear máquinas pensantes con sus enormes modelos de IA, como afirman sus principales ejecutivos? No, según un experto.

Los humanos tendemos a asociar el lenguaje con la inteligencia. Nos sentimos atraídos por aquellos con mayores habilidades lingüísticas, ya sean oradores o escritores.

Pero la investigación más reciente sugiere que el lenguaje no es lo mismo que la inteligencia, dice Benjamin Riley, fundador de la empresa Cognitive Resonance, en un ensayo para The Verge. Y eso son malas noticias para la industria de la IA, que basa sus esperanzas y sueños de crear una inteligencia general artificial, o IAG, en la arquitectura de modelos de lenguaje extenso que ya está utilizando.

«El problema es que, según la neurociencia actual, el pensamiento humano es en gran medida independiente del lenguaje humano, y tenemos pocas razones para creer que un modelado más sofisticado del lenguaje creará una forma de inteligencia que iguala o supera la nuestra», escribió Riley. «Usamos el lenguaje para pensar, pero eso no hace que el lenguaje sea lo mismo que el pensamiento. Entender esta distinción es la clave para separar el hecho científico de la ciencia ficción especulativa de los CEOs exuberantes de IA».

La IAG, para ser más específicos, sería un sistema de IA omnisciente que iguala o supera la cognición humana en una amplia variedad de tareas. Pero en la práctica, a menudo se la imagina ayudando a resolver todos los mayores problemas que la humanidad no puede, desde el cáncer hasta el cambio climático. Y al decir que están creando uno, los líderes de IA pueden justificar el gasto exorbitante de la industria y su impacto ambiental catastrófico.

Parte de la razón por la cual el gasto en capital de la IA ha estado tan fuera de control es la obsesión con la escalabilidad: al proporcionar a los modelos de IA más datos y potenciarlos con un número cada vez mayor de GPUs, las compañías de IA han hecho que sus modelos sean mejores resolviendo problemas y más similares a los humanos en su capacidad para mantener una conversación.

Pero «los LLM son simplemente herramientas que emulan la función comunicativa del lenguaje, no el proceso cognitivo separado y distinto de pensar y razonar, no importa cuántos centros de datos construyamos», escribió Riley.

Si el lenguaje fuera esencial para el pensamiento, entonces quitarlo debería eliminar nuestra capacidad de pensar. Pero esto no sucede, señala Riley, citando décadas de investigación resumidas en un comentario publicado en Nature el año pasado.

Por un lado, imágenes por resonancia magnética funcional (fMRI) de cerebros humanos han mostrado que partes distintas del cerebro se activan durante diferentes actividades cognitivas, señala Riley. No estamos reclutando la misma región de neuronas al reflexionar sobre un problema matemático versus uno de lenguaje. Mientras tanto, estudios de personas que perdieron sus habilidades lingüísticas mostraron que su capacidad para pensar estaba en gran medida intacta, ya que aún podían resolver problemas matemáticos, seguir instrucciones no verbales y comprender las emociones de otras personas.

Incluso algunas figuras líderes de la IA son escépticas de los LLM. El más famoso de todos es el ganador del Premio Turing y «padrino» de la IA moderna, Yann LeCun, quien hasta hace poco era el principal científico de IA de Meta. LeCun ha argumentado durante mucho tiempo que los LLM nunca alcanzarán la inteligencia general, y en su lugar cree en la búsqueda de los llamados modelos «mundo» que están diseñados para entender el mundo tridimensional entrenándolos en una variedad de datos físicos, en lugar de solo lenguaje. Es probable que esta visión haya llevado a su reciente salida; a pesar de la posición de LeCun, el CEO de Meta, Mark Zuckerberg, ha cambiado a invertir miles de millones de dólares en una nueva división de IA para crear una «superinteligencia» artificial usando tecnología LLM.

Otras investigaciones añaden a la idea de que los LLM tienen un límite duro. En un nuevo análisis publicado en el Journal of Creative Behavior, un investigador utilizó una fórmula matemática para determinar los límites de la «creatividad» de la IA, con resultados condenatorios. Debido a que los LLM son un sistema probabilístico, llegan a un punto donde ya no son capaces de generar salidas novedosas y únicas que no sean absurdas. Como resultado, el estudio concluyó que incluso los mejores sistemas de IA nunca serán nada más que artistas aceptables que te escriben un correo electrónico bien redactado.

«Mientras que la IA puede imitar el comportamiento creativo, bastante convincente en ocasiones, su capacidad creativa real está limitada al nivel de un humano promedio y nunca puede alcanzar estándares profesionales o de experto bajo los principios de diseño actuales», dijo en un comunicado sobre el trabajo David H Cropley, profesor de innovación en ingeniería en la Universidad de Australia del Sur.

«Un escritor, artista o diseñador hábil puede ocasionalmente producir algo verdaderamente original y efectivo», agregó Cropley. «Un LLM nunca lo hará. Siempre producirá algo promedio, y si las industrias dependen demasiado de él, terminarán con trabajos formulados y repetitivos».

Eso no es un presagio prometedor si se espera que la IA impulsada por LLM piense en nuevas innovaciones y amplíe los límites de nuestro entendimiento del mundo. ¿Cómo inventará una «nueva física», como dice Elon Musk que lo hará, o resolverá la crisis climática, como ha sugerido el CEO de OpenAI Sam Altman, si la tecnología lucha por encadenar nuevas oraciones que no están basadas en escritos preexistentes?

«Sí, un sistema de IA podría remezclar y reciclar nuestro conocimiento de formas interesantes», escribe Riley. «Pero eso es todo lo que podrá hacer. Estará atrapado para siempre en el vocabulario que hemos codificado en nuestros datos y sobre el que lo hemos entrenado, una máquina de metáforas muertas.»

Más sobre IA: Padrino de la IA Predice la Desintegración Total de la Sociedad

Con información de https://futurism.com/artificial-intelligence/large-language-models-willnever-be-intelligent

Previous Post
Next Post
Advertisement