El científico que predijo la psicosis digital tiene un sombrío pronóstico sobre lo que ocurrirá a continuación.

Aquí tienes un contenido traducido y reescrito:

Un joven con cabello rizado y camisa blanca parece confundido y se muerde el labio mientras sostiene una pieza de tiza cerca de una pizarra. En la pizarra, se puede ver parte de una ecuación matemática " + 2 =". En primer plano, una mano se levanta mostrando cuatro dedos. El fondo tiene un diseño estilizado en azul y amarillo.

Ilustración de Tag Hartman-Simkins / Futurism. Fuente: Getty Images

Cuando el psiquiatra danés Søren Dinesen Østergaard publicó en 2023 su advertencia sobre los efectos de la IA en la salud mental, las grandes tecnológicas que desarrollaban fervientemente chatbots de IA no le prestaron atención.

Desde entonces, muchas personas han perdido la vida tras ser arrastradas al suicidio o fallecidas por drogas letales después de interacciones obsesivas con chatbots de IA. Otros han caído en peligrosos trastornos mentales provocados por fijaciones intensas en modelos de IA como ChatGPT.

Ahora, Østergaard emite una nueva advertencia: que los intelectuales del mundo están acumulando una «deuda cognitiva» al usar la IA.

En una nueva carta al editor publicada en la revista Acta Psychiatrica Scandinavica, y destacada por PsyPost, Østergaard sostiene que la IA está erosionando las habilidades de escritura e investigación de los científicos que la utilizan.

“Aunque algunas personas tienen un talento natural, el razonamiento científico (y el razonamiento en general) no es una habilidad innata, sino que se aprende a través de la crianza, la educación y la práctica”, explica Østergaard. Si bien la capacidad de la IA para automatizar una amplia variedad de tareas académicas es “sin duda fascinante”, no está exenta de “consecuencias negativas para el usuario”, señala el científico.

Como ejemplo de las consecuencias a largo plazo que le preocupan, menciona a los investigadores de IA Demis Hassabis y John Jumper, quienes ganaron el Premio Nobel de Química en 2024 al “demostrar de manera impresionante” el potencial de la IA para asistir en el descubrimiento científico. Usando AlphaFold2, un sistema de IA desarrollado por Google DeepMind, Hassabis y Jumper pudieron predecir con precisión las estructuras tridimensionales de prácticamente todas las proteínas conocidas, un logro científico importante.

Aún así, como escribe Østergaard, su avance no surgió de la nada; se construyó sobre una base de intensa formación científica desarrollada durante toda una vida de estudio.

“Sostendría que no está garantizado que incluso personas como Hassabis y Jumper hubieran alcanzado el nivel del Premio Nobel, si las herramientas desarrolladas por la revolución de la IA generativa que ellos mismos contribuyen hubieran estado disponibles desde el inicio de su carrera —o desde que comenzaron la escuela primaria”, escribió Østergaard. “La razón es que simplemente pueden no haber tenido la oportunidad de practicar el razonamiento lo suficiente con la disponibilidad de estas herramientas.”

“Si el uso de chatbots de IA realmente causa deuda cognitiva, estamos en serios aprietos,” continuó Østergaard.

Su inquietante afirmación cuenta con el respaldo de otros académicos, como el neurocientífico Umberto León Domínguez de la Universidad de Monterrey, quien ha argumentado que el uso descuidado de la IA puede reemplazar las habilidades mentales que estudiantes y académicos de generaciones anteriores habrían tenido que desarrollar. Otros investigadores concuerdan en que la externalización cognitiva es un riesgo del uso de la IA.

A largo plazo, “mi suposición es que esto reducirá las posibilidades de que aparezcan personas como Demis Hassabis y John Jumper en futuras generaciones,” advirtió Østergaard.

Más sobre la psicosis por IA: Un hombre se despierta sin hogar, se da cuenta de que cayó en una psicosis por IA que destruyó toda su vida

Espero que esta traducción y reescritura te sea útil.

Con información de https://futurism.com/health-medicine/ai-debt-scientist-psychosis

Previous Post
Next Post
Advertisement